]> Git Repo - qemu.git/blob - block/sheepdog.c
block/sheepdog: Propagate errors through sd_prealloc()
[qemu.git] / block / sheepdog.c
1 /*
2  * Copyright (C) 2009-2010 Nippon Telegraph and Telephone Corporation.
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License version
6  * 2 as published by the Free Software Foundation.
7  *
8  * You should have received a copy of the GNU General Public License
9  * along with this program. If not, see <http://www.gnu.org/licenses/>.
10  *
11  * Contributions after 2012-01-13 are licensed under the terms of the
12  * GNU GPL, version 2 or (at your option) any later version.
13  */
14
15 #include "qemu-common.h"
16 #include "qemu/uri.h"
17 #include "qemu/error-report.h"
18 #include "qemu/sockets.h"
19 #include "block/block_int.h"
20 #include "qemu/bitops.h"
21
22 #define SD_PROTO_VER 0x01
23
24 #define SD_DEFAULT_ADDR "localhost"
25 #define SD_DEFAULT_PORT 7000
26
27 #define SD_OP_CREATE_AND_WRITE_OBJ  0x01
28 #define SD_OP_READ_OBJ       0x02
29 #define SD_OP_WRITE_OBJ      0x03
30 /* 0x04 is used internally by Sheepdog */
31 #define SD_OP_DISCARD_OBJ    0x05
32
33 #define SD_OP_NEW_VDI        0x11
34 #define SD_OP_LOCK_VDI       0x12
35 #define SD_OP_RELEASE_VDI    0x13
36 #define SD_OP_GET_VDI_INFO   0x14
37 #define SD_OP_READ_VDIS      0x15
38 #define SD_OP_FLUSH_VDI      0x16
39 #define SD_OP_DEL_VDI        0x17
40
41 #define SD_FLAG_CMD_WRITE    0x01
42 #define SD_FLAG_CMD_COW      0x02
43 #define SD_FLAG_CMD_CACHE    0x04 /* Writeback mode for cache */
44 #define SD_FLAG_CMD_DIRECT   0x08 /* Don't use cache */
45
46 #define SD_RES_SUCCESS       0x00 /* Success */
47 #define SD_RES_UNKNOWN       0x01 /* Unknown error */
48 #define SD_RES_NO_OBJ        0x02 /* No object found */
49 #define SD_RES_EIO           0x03 /* I/O error */
50 #define SD_RES_VDI_EXIST     0x04 /* Vdi exists already */
51 #define SD_RES_INVALID_PARMS 0x05 /* Invalid parameters */
52 #define SD_RES_SYSTEM_ERROR  0x06 /* System error */
53 #define SD_RES_VDI_LOCKED    0x07 /* Vdi is locked */
54 #define SD_RES_NO_VDI        0x08 /* No vdi found */
55 #define SD_RES_NO_BASE_VDI   0x09 /* No base vdi found */
56 #define SD_RES_VDI_READ      0x0A /* Cannot read requested vdi */
57 #define SD_RES_VDI_WRITE     0x0B /* Cannot write requested vdi */
58 #define SD_RES_BASE_VDI_READ 0x0C /* Cannot read base vdi */
59 #define SD_RES_BASE_VDI_WRITE   0x0D /* Cannot write base vdi */
60 #define SD_RES_NO_TAG        0x0E /* Requested tag is not found */
61 #define SD_RES_STARTUP       0x0F /* Sheepdog is on starting up */
62 #define SD_RES_VDI_NOT_LOCKED   0x10 /* Vdi is not locked */
63 #define SD_RES_SHUTDOWN      0x11 /* Sheepdog is shutting down */
64 #define SD_RES_NO_MEM        0x12 /* Cannot allocate memory */
65 #define SD_RES_FULL_VDI      0x13 /* we already have the maximum vdis */
66 #define SD_RES_VER_MISMATCH  0x14 /* Protocol version mismatch */
67 #define SD_RES_NO_SPACE      0x15 /* Server has no room for new objects */
68 #define SD_RES_WAIT_FOR_FORMAT  0x16 /* Waiting for a format operation */
69 #define SD_RES_WAIT_FOR_JOIN    0x17 /* Waiting for other nodes joining */
70 #define SD_RES_JOIN_FAILED   0x18 /* Target node had failed to join sheepdog */
71 #define SD_RES_HALT          0x19 /* Sheepdog is stopped serving IO request */
72 #define SD_RES_READONLY      0x1A /* Object is read-only */
73
74 /*
75  * Object ID rules
76  *
77  *  0 - 19 (20 bits): data object space
78  * 20 - 31 (12 bits): reserved data object space
79  * 32 - 55 (24 bits): vdi object space
80  * 56 - 59 ( 4 bits): reserved vdi object space
81  * 60 - 63 ( 4 bits): object type identifier space
82  */
83
84 #define VDI_SPACE_SHIFT   32
85 #define VDI_BIT (UINT64_C(1) << 63)
86 #define VMSTATE_BIT (UINT64_C(1) << 62)
87 #define MAX_DATA_OBJS (UINT64_C(1) << 20)
88 #define MAX_CHILDREN 1024
89 #define SD_MAX_VDI_LEN 256
90 #define SD_MAX_VDI_TAG_LEN 256
91 #define SD_NR_VDIS   (1U << 24)
92 #define SD_DATA_OBJ_SIZE (UINT64_C(1) << 22)
93 #define SD_MAX_VDI_SIZE (SD_DATA_OBJ_SIZE * MAX_DATA_OBJS)
94 /*
95  * For erasure coding, we use at most SD_EC_MAX_STRIP for data strips and
96  * (SD_EC_MAX_STRIP - 1) for parity strips
97  *
98  * SD_MAX_COPIES is sum of number of data strips and parity strips.
99  */
100 #define SD_EC_MAX_STRIP 16
101 #define SD_MAX_COPIES (SD_EC_MAX_STRIP * 2 - 1)
102
103 #define SD_INODE_SIZE (sizeof(SheepdogInode))
104 #define CURRENT_VDI_ID 0
105
106 typedef struct SheepdogReq {
107     uint8_t proto_ver;
108     uint8_t opcode;
109     uint16_t flags;
110     uint32_t epoch;
111     uint32_t id;
112     uint32_t data_length;
113     uint32_t opcode_specific[8];
114 } SheepdogReq;
115
116 typedef struct SheepdogRsp {
117     uint8_t proto_ver;
118     uint8_t opcode;
119     uint16_t flags;
120     uint32_t epoch;
121     uint32_t id;
122     uint32_t data_length;
123     uint32_t result;
124     uint32_t opcode_specific[7];
125 } SheepdogRsp;
126
127 typedef struct SheepdogObjReq {
128     uint8_t proto_ver;
129     uint8_t opcode;
130     uint16_t flags;
131     uint32_t epoch;
132     uint32_t id;
133     uint32_t data_length;
134     uint64_t oid;
135     uint64_t cow_oid;
136     uint8_t copies;
137     uint8_t copy_policy;
138     uint8_t reserved[6];
139     uint64_t offset;
140 } SheepdogObjReq;
141
142 typedef struct SheepdogObjRsp {
143     uint8_t proto_ver;
144     uint8_t opcode;
145     uint16_t flags;
146     uint32_t epoch;
147     uint32_t id;
148     uint32_t data_length;
149     uint32_t result;
150     uint8_t copies;
151     uint8_t copy_policy;
152     uint8_t reserved[2];
153     uint32_t pad[6];
154 } SheepdogObjRsp;
155
156 typedef struct SheepdogVdiReq {
157     uint8_t proto_ver;
158     uint8_t opcode;
159     uint16_t flags;
160     uint32_t epoch;
161     uint32_t id;
162     uint32_t data_length;
163     uint64_t vdi_size;
164     uint32_t base_vdi_id;
165     uint8_t copies;
166     uint8_t copy_policy;
167     uint8_t reserved[2];
168     uint32_t snapid;
169     uint32_t pad[3];
170 } SheepdogVdiReq;
171
172 typedef struct SheepdogVdiRsp {
173     uint8_t proto_ver;
174     uint8_t opcode;
175     uint16_t flags;
176     uint32_t epoch;
177     uint32_t id;
178     uint32_t data_length;
179     uint32_t result;
180     uint32_t rsvd;
181     uint32_t vdi_id;
182     uint32_t pad[5];
183 } SheepdogVdiRsp;
184
185 typedef struct SheepdogInode {
186     char name[SD_MAX_VDI_LEN];
187     char tag[SD_MAX_VDI_TAG_LEN];
188     uint64_t ctime;
189     uint64_t snap_ctime;
190     uint64_t vm_clock_nsec;
191     uint64_t vdi_size;
192     uint64_t vm_state_size;
193     uint16_t copy_policy;
194     uint8_t nr_copies;
195     uint8_t block_size_shift;
196     uint32_t snap_id;
197     uint32_t vdi_id;
198     uint32_t parent_vdi_id;
199     uint32_t child_vdi_id[MAX_CHILDREN];
200     uint32_t data_vdi_id[MAX_DATA_OBJS];
201 } SheepdogInode;
202
203 /*
204  * 64 bit FNV-1a non-zero initial basis
205  */
206 #define FNV1A_64_INIT ((uint64_t)0xcbf29ce484222325ULL)
207
208 /*
209  * 64 bit Fowler/Noll/Vo FNV-1a hash code
210  */
211 static inline uint64_t fnv_64a_buf(void *buf, size_t len, uint64_t hval)
212 {
213     unsigned char *bp = buf;
214     unsigned char *be = bp + len;
215     while (bp < be) {
216         hval ^= (uint64_t) *bp++;
217         hval += (hval << 1) + (hval << 4) + (hval << 5) +
218             (hval << 7) + (hval << 8) + (hval << 40);
219     }
220     return hval;
221 }
222
223 static inline bool is_data_obj_writable(SheepdogInode *inode, unsigned int idx)
224 {
225     return inode->vdi_id == inode->data_vdi_id[idx];
226 }
227
228 static inline bool is_data_obj(uint64_t oid)
229 {
230     return !(VDI_BIT & oid);
231 }
232
233 static inline uint64_t data_oid_to_idx(uint64_t oid)
234 {
235     return oid & (MAX_DATA_OBJS - 1);
236 }
237
238 static inline uint32_t oid_to_vid(uint64_t oid)
239 {
240     return (oid & ~VDI_BIT) >> VDI_SPACE_SHIFT;
241 }
242
243 static inline uint64_t vid_to_vdi_oid(uint32_t vid)
244 {
245     return VDI_BIT | ((uint64_t)vid << VDI_SPACE_SHIFT);
246 }
247
248 static inline uint64_t vid_to_vmstate_oid(uint32_t vid, uint32_t idx)
249 {
250     return VMSTATE_BIT | ((uint64_t)vid << VDI_SPACE_SHIFT) | idx;
251 }
252
253 static inline uint64_t vid_to_data_oid(uint32_t vid, uint32_t idx)
254 {
255     return ((uint64_t)vid << VDI_SPACE_SHIFT) | idx;
256 }
257
258 static inline bool is_snapshot(struct SheepdogInode *inode)
259 {
260     return !!inode->snap_ctime;
261 }
262
263 #undef DPRINTF
264 #ifdef DEBUG_SDOG
265 #define DPRINTF(fmt, args...)                                       \
266     do {                                                            \
267         fprintf(stdout, "%s %d: " fmt, __func__, __LINE__, ##args); \
268     } while (0)
269 #else
270 #define DPRINTF(fmt, args...)
271 #endif
272
273 typedef struct SheepdogAIOCB SheepdogAIOCB;
274
275 typedef struct AIOReq {
276     SheepdogAIOCB *aiocb;
277     unsigned int iov_offset;
278
279     uint64_t oid;
280     uint64_t base_oid;
281     uint64_t offset;
282     unsigned int data_len;
283     uint8_t flags;
284     uint32_t id;
285
286     QLIST_ENTRY(AIOReq) aio_siblings;
287 } AIOReq;
288
289 enum AIOCBState {
290     AIOCB_WRITE_UDATA,
291     AIOCB_READ_UDATA,
292     AIOCB_FLUSH_CACHE,
293     AIOCB_DISCARD_OBJ,
294 };
295
296 struct SheepdogAIOCB {
297     BlockDriverAIOCB common;
298
299     QEMUIOVector *qiov;
300
301     int64_t sector_num;
302     int nb_sectors;
303
304     int ret;
305     enum AIOCBState aiocb_type;
306
307     Coroutine *coroutine;
308     void (*aio_done_func)(SheepdogAIOCB *);
309
310     bool cancelable;
311     bool *finished;
312     int nr_pending;
313 };
314
315 typedef struct BDRVSheepdogState {
316     BlockDriverState *bs;
317
318     SheepdogInode inode;
319
320     uint32_t min_dirty_data_idx;
321     uint32_t max_dirty_data_idx;
322
323     char name[SD_MAX_VDI_LEN];
324     bool is_snapshot;
325     uint32_t cache_flags;
326     bool discard_supported;
327
328     char *host_spec;
329     bool is_unix;
330     int fd;
331
332     CoMutex lock;
333     Coroutine *co_send;
334     Coroutine *co_recv;
335
336     uint32_t aioreq_seq_num;
337
338     /* Every aio request must be linked to either of these queues. */
339     QLIST_HEAD(inflight_aio_head, AIOReq) inflight_aio_head;
340     QLIST_HEAD(pending_aio_head, AIOReq) pending_aio_head;
341     QLIST_HEAD(failed_aio_head, AIOReq) failed_aio_head;
342 } BDRVSheepdogState;
343
344 static const char * sd_strerror(int err)
345 {
346     int i;
347
348     static const struct {
349         int err;
350         const char *desc;
351     } errors[] = {
352         {SD_RES_SUCCESS, "Success"},
353         {SD_RES_UNKNOWN, "Unknown error"},
354         {SD_RES_NO_OBJ, "No object found"},
355         {SD_RES_EIO, "I/O error"},
356         {SD_RES_VDI_EXIST, "VDI exists already"},
357         {SD_RES_INVALID_PARMS, "Invalid parameters"},
358         {SD_RES_SYSTEM_ERROR, "System error"},
359         {SD_RES_VDI_LOCKED, "VDI is already locked"},
360         {SD_RES_NO_VDI, "No vdi found"},
361         {SD_RES_NO_BASE_VDI, "No base VDI found"},
362         {SD_RES_VDI_READ, "Failed read the requested VDI"},
363         {SD_RES_VDI_WRITE, "Failed to write the requested VDI"},
364         {SD_RES_BASE_VDI_READ, "Failed to read the base VDI"},
365         {SD_RES_BASE_VDI_WRITE, "Failed to write the base VDI"},
366         {SD_RES_NO_TAG, "Failed to find the requested tag"},
367         {SD_RES_STARTUP, "The system is still booting"},
368         {SD_RES_VDI_NOT_LOCKED, "VDI isn't locked"},
369         {SD_RES_SHUTDOWN, "The system is shutting down"},
370         {SD_RES_NO_MEM, "Out of memory on the server"},
371         {SD_RES_FULL_VDI, "We already have the maximum vdis"},
372         {SD_RES_VER_MISMATCH, "Protocol version mismatch"},
373         {SD_RES_NO_SPACE, "Server has no space for new objects"},
374         {SD_RES_WAIT_FOR_FORMAT, "Sheepdog is waiting for a format operation"},
375         {SD_RES_WAIT_FOR_JOIN, "Sheepdog is waiting for other nodes joining"},
376         {SD_RES_JOIN_FAILED, "Target node had failed to join sheepdog"},
377         {SD_RES_HALT, "Sheepdog is stopped serving IO request"},
378         {SD_RES_READONLY, "Object is read-only"},
379     };
380
381     for (i = 0; i < ARRAY_SIZE(errors); ++i) {
382         if (errors[i].err == err) {
383             return errors[i].desc;
384         }
385     }
386
387     return "Invalid error code";
388 }
389
390 /*
391  * Sheepdog I/O handling:
392  *
393  * 1. In sd_co_rw_vector, we send the I/O requests to the server and
394  *    link the requests to the inflight_list in the
395  *    BDRVSheepdogState.  The function exits without waiting for
396  *    receiving the response.
397  *
398  * 2. We receive the response in aio_read_response, the fd handler to
399  *    the sheepdog connection.  If metadata update is needed, we send
400  *    the write request to the vdi object in sd_write_done, the write
401  *    completion function.  We switch back to sd_co_readv/writev after
402  *    all the requests belonging to the AIOCB are finished.
403  */
404
405 static inline AIOReq *alloc_aio_req(BDRVSheepdogState *s, SheepdogAIOCB *acb,
406                                     uint64_t oid, unsigned int data_len,
407                                     uint64_t offset, uint8_t flags,
408                                     uint64_t base_oid, unsigned int iov_offset)
409 {
410     AIOReq *aio_req;
411
412     aio_req = g_malloc(sizeof(*aio_req));
413     aio_req->aiocb = acb;
414     aio_req->iov_offset = iov_offset;
415     aio_req->oid = oid;
416     aio_req->base_oid = base_oid;
417     aio_req->offset = offset;
418     aio_req->data_len = data_len;
419     aio_req->flags = flags;
420     aio_req->id = s->aioreq_seq_num++;
421
422     acb->nr_pending++;
423     return aio_req;
424 }
425
426 static inline void free_aio_req(BDRVSheepdogState *s, AIOReq *aio_req)
427 {
428     SheepdogAIOCB *acb = aio_req->aiocb;
429
430     acb->cancelable = false;
431     QLIST_REMOVE(aio_req, aio_siblings);
432     g_free(aio_req);
433
434     acb->nr_pending--;
435 }
436
437 static void coroutine_fn sd_finish_aiocb(SheepdogAIOCB *acb)
438 {
439     qemu_coroutine_enter(acb->coroutine, NULL);
440     if (acb->finished) {
441         *acb->finished = true;
442     }
443     qemu_aio_release(acb);
444 }
445
446 /*
447  * Check whether the specified acb can be canceled
448  *
449  * We can cancel aio when any request belonging to the acb is:
450  *  - Not processed by the sheepdog server.
451  *  - Not linked to the inflight queue.
452  */
453 static bool sd_acb_cancelable(const SheepdogAIOCB *acb)
454 {
455     BDRVSheepdogState *s = acb->common.bs->opaque;
456     AIOReq *aioreq;
457
458     if (!acb->cancelable) {
459         return false;
460     }
461
462     QLIST_FOREACH(aioreq, &s->inflight_aio_head, aio_siblings) {
463         if (aioreq->aiocb == acb) {
464             return false;
465         }
466     }
467
468     return true;
469 }
470
471 static void sd_aio_cancel(BlockDriverAIOCB *blockacb)
472 {
473     SheepdogAIOCB *acb = (SheepdogAIOCB *)blockacb;
474     BDRVSheepdogState *s = acb->common.bs->opaque;
475     AIOReq *aioreq, *next;
476     bool finished = false;
477
478     acb->finished = &finished;
479     while (!finished) {
480         if (sd_acb_cancelable(acb)) {
481             /* Remove outstanding requests from pending and failed queues.  */
482             QLIST_FOREACH_SAFE(aioreq, &s->pending_aio_head, aio_siblings,
483                                next) {
484                 if (aioreq->aiocb == acb) {
485                     free_aio_req(s, aioreq);
486                 }
487             }
488             QLIST_FOREACH_SAFE(aioreq, &s->failed_aio_head, aio_siblings,
489                                next) {
490                 if (aioreq->aiocb == acb) {
491                     free_aio_req(s, aioreq);
492                 }
493             }
494
495             assert(acb->nr_pending == 0);
496             sd_finish_aiocb(acb);
497             return;
498         }
499         qemu_aio_wait();
500     }
501 }
502
503 static const AIOCBInfo sd_aiocb_info = {
504     .aiocb_size = sizeof(SheepdogAIOCB),
505     .cancel = sd_aio_cancel,
506 };
507
508 static SheepdogAIOCB *sd_aio_setup(BlockDriverState *bs, QEMUIOVector *qiov,
509                                    int64_t sector_num, int nb_sectors)
510 {
511     SheepdogAIOCB *acb;
512
513     acb = qemu_aio_get(&sd_aiocb_info, bs, NULL, NULL);
514
515     acb->qiov = qiov;
516
517     acb->sector_num = sector_num;
518     acb->nb_sectors = nb_sectors;
519
520     acb->aio_done_func = NULL;
521     acb->cancelable = true;
522     acb->finished = NULL;
523     acb->coroutine = qemu_coroutine_self();
524     acb->ret = 0;
525     acb->nr_pending = 0;
526     return acb;
527 }
528
529 static int connect_to_sdog(BDRVSheepdogState *s, Error **errp)
530 {
531     int fd;
532
533     if (s->is_unix) {
534         fd = unix_connect(s->host_spec, errp);
535     } else {
536         fd = inet_connect(s->host_spec, errp);
537
538         if (fd >= 0) {
539             int ret = socket_set_nodelay(fd);
540             if (ret < 0) {
541                 error_report("%s", strerror(errno));
542             }
543         }
544     }
545
546     if (fd >= 0) {
547         qemu_set_nonblock(fd);
548     }
549
550     return fd;
551 }
552
553 static coroutine_fn int send_co_req(int sockfd, SheepdogReq *hdr, void *data,
554                                     unsigned int *wlen)
555 {
556     int ret;
557
558     ret = qemu_co_send(sockfd, hdr, sizeof(*hdr));
559     if (ret != sizeof(*hdr)) {
560         error_report("failed to send a req, %s", strerror(errno));
561         return ret;
562     }
563
564     ret = qemu_co_send(sockfd, data, *wlen);
565     if (ret != *wlen) {
566         error_report("failed to send a req, %s", strerror(errno));
567     }
568
569     return ret;
570 }
571
572 static void restart_co_req(void *opaque)
573 {
574     Coroutine *co = opaque;
575
576     qemu_coroutine_enter(co, NULL);
577 }
578
579 typedef struct SheepdogReqCo {
580     int sockfd;
581     SheepdogReq *hdr;
582     void *data;
583     unsigned int *wlen;
584     unsigned int *rlen;
585     int ret;
586     bool finished;
587 } SheepdogReqCo;
588
589 static coroutine_fn void do_co_req(void *opaque)
590 {
591     int ret;
592     Coroutine *co;
593     SheepdogReqCo *srco = opaque;
594     int sockfd = srco->sockfd;
595     SheepdogReq *hdr = srco->hdr;
596     void *data = srco->data;
597     unsigned int *wlen = srco->wlen;
598     unsigned int *rlen = srco->rlen;
599
600     co = qemu_coroutine_self();
601     qemu_aio_set_fd_handler(sockfd, NULL, restart_co_req, co);
602
603     ret = send_co_req(sockfd, hdr, data, wlen);
604     if (ret < 0) {
605         goto out;
606     }
607
608     qemu_aio_set_fd_handler(sockfd, restart_co_req, NULL, co);
609
610     ret = qemu_co_recv(sockfd, hdr, sizeof(*hdr));
611     if (ret != sizeof(*hdr)) {
612         error_report("failed to get a rsp, %s", strerror(errno));
613         ret = -errno;
614         goto out;
615     }
616
617     if (*rlen > hdr->data_length) {
618         *rlen = hdr->data_length;
619     }
620
621     if (*rlen) {
622         ret = qemu_co_recv(sockfd, data, *rlen);
623         if (ret != *rlen) {
624             error_report("failed to get the data, %s", strerror(errno));
625             ret = -errno;
626             goto out;
627         }
628     }
629     ret = 0;
630 out:
631     /* there is at most one request for this sockfd, so it is safe to
632      * set each handler to NULL. */
633     qemu_aio_set_fd_handler(sockfd, NULL, NULL, NULL);
634
635     srco->ret = ret;
636     srco->finished = true;
637 }
638
639 static int do_req(int sockfd, SheepdogReq *hdr, void *data,
640                   unsigned int *wlen, unsigned int *rlen)
641 {
642     Coroutine *co;
643     SheepdogReqCo srco = {
644         .sockfd = sockfd,
645         .hdr = hdr,
646         .data = data,
647         .wlen = wlen,
648         .rlen = rlen,
649         .ret = 0,
650         .finished = false,
651     };
652
653     if (qemu_in_coroutine()) {
654         do_co_req(&srco);
655     } else {
656         co = qemu_coroutine_create(do_co_req);
657         qemu_coroutine_enter(co, &srco);
658         while (!srco.finished) {
659             qemu_aio_wait();
660         }
661     }
662
663     return srco.ret;
664 }
665
666 static void coroutine_fn add_aio_request(BDRVSheepdogState *s, AIOReq *aio_req,
667                            struct iovec *iov, int niov, bool create,
668                            enum AIOCBState aiocb_type);
669 static void coroutine_fn resend_aioreq(BDRVSheepdogState *s, AIOReq *aio_req);
670 static int reload_inode(BDRVSheepdogState *s, uint32_t snapid, const char *tag);
671 static int get_sheep_fd(BDRVSheepdogState *s, Error **errp);
672 static void co_write_request(void *opaque);
673
674 static AIOReq *find_pending_req(BDRVSheepdogState *s, uint64_t oid)
675 {
676     AIOReq *aio_req;
677
678     QLIST_FOREACH(aio_req, &s->pending_aio_head, aio_siblings) {
679         if (aio_req->oid == oid) {
680             return aio_req;
681         }
682     }
683
684     return NULL;
685 }
686
687 /*
688  * This function searchs pending requests to the object `oid', and
689  * sends them.
690  */
691 static void coroutine_fn send_pending_req(BDRVSheepdogState *s, uint64_t oid)
692 {
693     AIOReq *aio_req;
694     SheepdogAIOCB *acb;
695
696     while ((aio_req = find_pending_req(s, oid)) != NULL) {
697         acb = aio_req->aiocb;
698         /* move aio_req from pending list to inflight one */
699         QLIST_REMOVE(aio_req, aio_siblings);
700         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
701         add_aio_request(s, aio_req, acb->qiov->iov, acb->qiov->niov, false,
702                         acb->aiocb_type);
703     }
704 }
705
706 static coroutine_fn void reconnect_to_sdog(void *opaque)
707 {
708     Error *local_err = NULL;
709     BDRVSheepdogState *s = opaque;
710     AIOReq *aio_req, *next;
711
712     qemu_aio_set_fd_handler(s->fd, NULL, NULL, NULL);
713     close(s->fd);
714     s->fd = -1;
715
716     /* Wait for outstanding write requests to be completed. */
717     while (s->co_send != NULL) {
718         co_write_request(opaque);
719     }
720
721     /* Try to reconnect the sheepdog server every one second. */
722     while (s->fd < 0) {
723         s->fd = get_sheep_fd(s, &local_err);
724         if (s->fd < 0) {
725             DPRINTF("Wait for connection to be established\n");
726             qerror_report_err(local_err);
727             error_free(local_err);
728             co_aio_sleep_ns(bdrv_get_aio_context(s->bs), QEMU_CLOCK_REALTIME,
729                             1000000000ULL);
730         }
731     };
732
733     /*
734      * Now we have to resend all the request in the inflight queue.  However,
735      * resend_aioreq() can yield and newly created requests can be added to the
736      * inflight queue before the coroutine is resumed.  To avoid mixing them, we
737      * have to move all the inflight requests to the failed queue before
738      * resend_aioreq() is called.
739      */
740     QLIST_FOREACH_SAFE(aio_req, &s->inflight_aio_head, aio_siblings, next) {
741         QLIST_REMOVE(aio_req, aio_siblings);
742         QLIST_INSERT_HEAD(&s->failed_aio_head, aio_req, aio_siblings);
743     }
744
745     /* Resend all the failed aio requests. */
746     while (!QLIST_EMPTY(&s->failed_aio_head)) {
747         aio_req = QLIST_FIRST(&s->failed_aio_head);
748         QLIST_REMOVE(aio_req, aio_siblings);
749         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
750         resend_aioreq(s, aio_req);
751     }
752 }
753
754 /*
755  * Receive responses of the I/O requests.
756  *
757  * This function is registered as a fd handler, and called from the
758  * main loop when s->fd is ready for reading responses.
759  */
760 static void coroutine_fn aio_read_response(void *opaque)
761 {
762     SheepdogObjRsp rsp;
763     BDRVSheepdogState *s = opaque;
764     int fd = s->fd;
765     int ret;
766     AIOReq *aio_req = NULL;
767     SheepdogAIOCB *acb;
768     uint64_t idx;
769
770     /* read a header */
771     ret = qemu_co_recv(fd, &rsp, sizeof(rsp));
772     if (ret != sizeof(rsp)) {
773         error_report("failed to get the header, %s", strerror(errno));
774         goto err;
775     }
776
777     /* find the right aio_req from the inflight aio list */
778     QLIST_FOREACH(aio_req, &s->inflight_aio_head, aio_siblings) {
779         if (aio_req->id == rsp.id) {
780             break;
781         }
782     }
783     if (!aio_req) {
784         error_report("cannot find aio_req %x", rsp.id);
785         goto err;
786     }
787
788     acb = aio_req->aiocb;
789
790     switch (acb->aiocb_type) {
791     case AIOCB_WRITE_UDATA:
792         /* this coroutine context is no longer suitable for co_recv
793          * because we may send data to update vdi objects */
794         s->co_recv = NULL;
795         if (!is_data_obj(aio_req->oid)) {
796             break;
797         }
798         idx = data_oid_to_idx(aio_req->oid);
799
800         if (s->inode.data_vdi_id[idx] != s->inode.vdi_id) {
801             /*
802              * If the object is newly created one, we need to update
803              * the vdi object (metadata object).  min_dirty_data_idx
804              * and max_dirty_data_idx are changed to include updated
805              * index between them.
806              */
807             if (rsp.result == SD_RES_SUCCESS) {
808                 s->inode.data_vdi_id[idx] = s->inode.vdi_id;
809                 s->max_dirty_data_idx = MAX(idx, s->max_dirty_data_idx);
810                 s->min_dirty_data_idx = MIN(idx, s->min_dirty_data_idx);
811             }
812             /*
813              * Some requests may be blocked because simultaneous
814              * create requests are not allowed, so we search the
815              * pending requests here.
816              */
817             send_pending_req(s, aio_req->oid);
818         }
819         break;
820     case AIOCB_READ_UDATA:
821         ret = qemu_co_recvv(fd, acb->qiov->iov, acb->qiov->niov,
822                             aio_req->iov_offset, rsp.data_length);
823         if (ret != rsp.data_length) {
824             error_report("failed to get the data, %s", strerror(errno));
825             goto err;
826         }
827         break;
828     case AIOCB_FLUSH_CACHE:
829         if (rsp.result == SD_RES_INVALID_PARMS) {
830             DPRINTF("disable cache since the server doesn't support it\n");
831             s->cache_flags = SD_FLAG_CMD_DIRECT;
832             rsp.result = SD_RES_SUCCESS;
833         }
834         break;
835     case AIOCB_DISCARD_OBJ:
836         switch (rsp.result) {
837         case SD_RES_INVALID_PARMS:
838             error_report("sheep(%s) doesn't support discard command",
839                          s->host_spec);
840             rsp.result = SD_RES_SUCCESS;
841             s->discard_supported = false;
842             break;
843         case SD_RES_SUCCESS:
844             idx = data_oid_to_idx(aio_req->oid);
845             s->inode.data_vdi_id[idx] = 0;
846             break;
847         default:
848             break;
849         }
850     }
851
852     switch (rsp.result) {
853     case SD_RES_SUCCESS:
854         break;
855     case SD_RES_READONLY:
856         if (s->inode.vdi_id == oid_to_vid(aio_req->oid)) {
857             ret = reload_inode(s, 0, "");
858             if (ret < 0) {
859                 goto err;
860             }
861         }
862         if (is_data_obj(aio_req->oid)) {
863             aio_req->oid = vid_to_data_oid(s->inode.vdi_id,
864                                            data_oid_to_idx(aio_req->oid));
865         } else {
866             aio_req->oid = vid_to_vdi_oid(s->inode.vdi_id);
867         }
868         resend_aioreq(s, aio_req);
869         goto out;
870     default:
871         acb->ret = -EIO;
872         error_report("%s", sd_strerror(rsp.result));
873         break;
874     }
875
876     free_aio_req(s, aio_req);
877     if (!acb->nr_pending) {
878         /*
879          * We've finished all requests which belong to the AIOCB, so
880          * we can switch back to sd_co_readv/writev now.
881          */
882         acb->aio_done_func(acb);
883     }
884 out:
885     s->co_recv = NULL;
886     return;
887 err:
888     s->co_recv = NULL;
889     reconnect_to_sdog(opaque);
890 }
891
892 static void co_read_response(void *opaque)
893 {
894     BDRVSheepdogState *s = opaque;
895
896     if (!s->co_recv) {
897         s->co_recv = qemu_coroutine_create(aio_read_response);
898     }
899
900     qemu_coroutine_enter(s->co_recv, opaque);
901 }
902
903 static void co_write_request(void *opaque)
904 {
905     BDRVSheepdogState *s = opaque;
906
907     qemu_coroutine_enter(s->co_send, NULL);
908 }
909
910 /*
911  * Return a socket descriptor to read/write objects.
912  *
913  * We cannot use this descriptor for other operations because
914  * the block driver may be on waiting response from the server.
915  */
916 static int get_sheep_fd(BDRVSheepdogState *s, Error **errp)
917 {
918     int fd;
919
920     fd = connect_to_sdog(s, errp);
921     if (fd < 0) {
922         return fd;
923     }
924
925     qemu_aio_set_fd_handler(fd, co_read_response, NULL, s);
926     return fd;
927 }
928
929 static int sd_parse_uri(BDRVSheepdogState *s, const char *filename,
930                         char *vdi, uint32_t *snapid, char *tag)
931 {
932     URI *uri;
933     QueryParams *qp = NULL;
934     int ret = 0;
935
936     uri = uri_parse(filename);
937     if (!uri) {
938         return -EINVAL;
939     }
940
941     /* transport */
942     if (!strcmp(uri->scheme, "sheepdog")) {
943         s->is_unix = false;
944     } else if (!strcmp(uri->scheme, "sheepdog+tcp")) {
945         s->is_unix = false;
946     } else if (!strcmp(uri->scheme, "sheepdog+unix")) {
947         s->is_unix = true;
948     } else {
949         ret = -EINVAL;
950         goto out;
951     }
952
953     if (uri->path == NULL || !strcmp(uri->path, "/")) {
954         ret = -EINVAL;
955         goto out;
956     }
957     pstrcpy(vdi, SD_MAX_VDI_LEN, uri->path + 1);
958
959     qp = query_params_parse(uri->query);
960     if (qp->n > 1 || (s->is_unix && !qp->n) || (!s->is_unix && qp->n)) {
961         ret = -EINVAL;
962         goto out;
963     }
964
965     if (s->is_unix) {
966         /* sheepdog+unix:///vdiname?socket=path */
967         if (uri->server || uri->port || strcmp(qp->p[0].name, "socket")) {
968             ret = -EINVAL;
969             goto out;
970         }
971         s->host_spec = g_strdup(qp->p[0].value);
972     } else {
973         /* sheepdog[+tcp]://[host:port]/vdiname */
974         s->host_spec = g_strdup_printf("%s:%d", uri->server ?: SD_DEFAULT_ADDR,
975                                        uri->port ?: SD_DEFAULT_PORT);
976     }
977
978     /* snapshot tag */
979     if (uri->fragment) {
980         *snapid = strtoul(uri->fragment, NULL, 10);
981         if (*snapid == 0) {
982             pstrcpy(tag, SD_MAX_VDI_TAG_LEN, uri->fragment);
983         }
984     } else {
985         *snapid = CURRENT_VDI_ID; /* search current vdi */
986     }
987
988 out:
989     if (qp) {
990         query_params_free(qp);
991     }
992     uri_free(uri);
993     return ret;
994 }
995
996 /*
997  * Parse a filename (old syntax)
998  *
999  * filename must be one of the following formats:
1000  *   1. [vdiname]
1001  *   2. [vdiname]:[snapid]
1002  *   3. [vdiname]:[tag]
1003  *   4. [hostname]:[port]:[vdiname]
1004  *   5. [hostname]:[port]:[vdiname]:[snapid]
1005  *   6. [hostname]:[port]:[vdiname]:[tag]
1006  *
1007  * You can boot from the snapshot images by specifying `snapid` or
1008  * `tag'.
1009  *
1010  * You can run VMs outside the Sheepdog cluster by specifying
1011  * `hostname' and `port' (experimental).
1012  */
1013 static int parse_vdiname(BDRVSheepdogState *s, const char *filename,
1014                          char *vdi, uint32_t *snapid, char *tag)
1015 {
1016     char *p, *q, *uri;
1017     const char *host_spec, *vdi_spec;
1018     int nr_sep, ret;
1019
1020     strstart(filename, "sheepdog:", (const char **)&filename);
1021     p = q = g_strdup(filename);
1022
1023     /* count the number of separators */
1024     nr_sep = 0;
1025     while (*p) {
1026         if (*p == ':') {
1027             nr_sep++;
1028         }
1029         p++;
1030     }
1031     p = q;
1032
1033     /* use the first two tokens as host_spec. */
1034     if (nr_sep >= 2) {
1035         host_spec = p;
1036         p = strchr(p, ':');
1037         p++;
1038         p = strchr(p, ':');
1039         *p++ = '\0';
1040     } else {
1041         host_spec = "";
1042     }
1043
1044     vdi_spec = p;
1045
1046     p = strchr(vdi_spec, ':');
1047     if (p) {
1048         *p++ = '#';
1049     }
1050
1051     uri = g_strdup_printf("sheepdog://%s/%s", host_spec, vdi_spec);
1052
1053     ret = sd_parse_uri(s, uri, vdi, snapid, tag);
1054
1055     g_free(q);
1056     g_free(uri);
1057
1058     return ret;
1059 }
1060
1061 static int find_vdi_name(BDRVSheepdogState *s, const char *filename,
1062                          uint32_t snapid, const char *tag, uint32_t *vid,
1063                          bool lock)
1064 {
1065     Error *local_err = NULL;
1066     int ret, fd;
1067     SheepdogVdiReq hdr;
1068     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1069     unsigned int wlen, rlen = 0;
1070     char buf[SD_MAX_VDI_LEN + SD_MAX_VDI_TAG_LEN];
1071
1072     fd = connect_to_sdog(s, &local_err);
1073     if (fd < 0) {
1074         qerror_report_err(local_err);
1075         error_free(local_err);
1076         return fd;
1077     }
1078
1079     /* This pair of strncpy calls ensures that the buffer is zero-filled,
1080      * which is desirable since we'll soon be sending those bytes, and
1081      * don't want the send_req to read uninitialized data.
1082      */
1083     strncpy(buf, filename, SD_MAX_VDI_LEN);
1084     strncpy(buf + SD_MAX_VDI_LEN, tag, SD_MAX_VDI_TAG_LEN);
1085
1086     memset(&hdr, 0, sizeof(hdr));
1087     if (lock) {
1088         hdr.opcode = SD_OP_LOCK_VDI;
1089     } else {
1090         hdr.opcode = SD_OP_GET_VDI_INFO;
1091     }
1092     wlen = SD_MAX_VDI_LEN + SD_MAX_VDI_TAG_LEN;
1093     hdr.proto_ver = SD_PROTO_VER;
1094     hdr.data_length = wlen;
1095     hdr.snapid = snapid;
1096     hdr.flags = SD_FLAG_CMD_WRITE;
1097
1098     ret = do_req(fd, (SheepdogReq *)&hdr, buf, &wlen, &rlen);
1099     if (ret) {
1100         goto out;
1101     }
1102
1103     if (rsp->result != SD_RES_SUCCESS) {
1104         error_report("cannot get vdi info, %s, %s %" PRIu32 " %s",
1105                      sd_strerror(rsp->result), filename, snapid, tag);
1106         if (rsp->result == SD_RES_NO_VDI) {
1107             ret = -ENOENT;
1108         } else {
1109             ret = -EIO;
1110         }
1111         goto out;
1112     }
1113     *vid = rsp->vdi_id;
1114
1115     ret = 0;
1116 out:
1117     closesocket(fd);
1118     return ret;
1119 }
1120
1121 static void coroutine_fn add_aio_request(BDRVSheepdogState *s, AIOReq *aio_req,
1122                            struct iovec *iov, int niov, bool create,
1123                            enum AIOCBState aiocb_type)
1124 {
1125     int nr_copies = s->inode.nr_copies;
1126     SheepdogObjReq hdr;
1127     unsigned int wlen = 0;
1128     int ret;
1129     uint64_t oid = aio_req->oid;
1130     unsigned int datalen = aio_req->data_len;
1131     uint64_t offset = aio_req->offset;
1132     uint8_t flags = aio_req->flags;
1133     uint64_t old_oid = aio_req->base_oid;
1134
1135     if (!nr_copies) {
1136         error_report("bug");
1137     }
1138
1139     memset(&hdr, 0, sizeof(hdr));
1140
1141     switch (aiocb_type) {
1142     case AIOCB_FLUSH_CACHE:
1143         hdr.opcode = SD_OP_FLUSH_VDI;
1144         break;
1145     case AIOCB_READ_UDATA:
1146         hdr.opcode = SD_OP_READ_OBJ;
1147         hdr.flags = flags;
1148         break;
1149     case AIOCB_WRITE_UDATA:
1150         if (create) {
1151             hdr.opcode = SD_OP_CREATE_AND_WRITE_OBJ;
1152         } else {
1153             hdr.opcode = SD_OP_WRITE_OBJ;
1154         }
1155         wlen = datalen;
1156         hdr.flags = SD_FLAG_CMD_WRITE | flags;
1157         break;
1158     case AIOCB_DISCARD_OBJ:
1159         hdr.opcode = SD_OP_DISCARD_OBJ;
1160         break;
1161     }
1162
1163     if (s->cache_flags) {
1164         hdr.flags |= s->cache_flags;
1165     }
1166
1167     hdr.oid = oid;
1168     hdr.cow_oid = old_oid;
1169     hdr.copies = s->inode.nr_copies;
1170
1171     hdr.data_length = datalen;
1172     hdr.offset = offset;
1173
1174     hdr.id = aio_req->id;
1175
1176     qemu_co_mutex_lock(&s->lock);
1177     s->co_send = qemu_coroutine_self();
1178     qemu_aio_set_fd_handler(s->fd, co_read_response, co_write_request, s);
1179     socket_set_cork(s->fd, 1);
1180
1181     /* send a header */
1182     ret = qemu_co_send(s->fd, &hdr, sizeof(hdr));
1183     if (ret != sizeof(hdr)) {
1184         error_report("failed to send a req, %s", strerror(errno));
1185         goto out;
1186     }
1187
1188     if (wlen) {
1189         ret = qemu_co_sendv(s->fd, iov, niov, aio_req->iov_offset, wlen);
1190         if (ret != wlen) {
1191             error_report("failed to send a data, %s", strerror(errno));
1192         }
1193     }
1194 out:
1195     socket_set_cork(s->fd, 0);
1196     qemu_aio_set_fd_handler(s->fd, co_read_response, NULL, s);
1197     s->co_send = NULL;
1198     qemu_co_mutex_unlock(&s->lock);
1199 }
1200
1201 static int read_write_object(int fd, char *buf, uint64_t oid, uint8_t copies,
1202                              unsigned int datalen, uint64_t offset,
1203                              bool write, bool create, uint32_t cache_flags)
1204 {
1205     SheepdogObjReq hdr;
1206     SheepdogObjRsp *rsp = (SheepdogObjRsp *)&hdr;
1207     unsigned int wlen, rlen;
1208     int ret;
1209
1210     memset(&hdr, 0, sizeof(hdr));
1211
1212     if (write) {
1213         wlen = datalen;
1214         rlen = 0;
1215         hdr.flags = SD_FLAG_CMD_WRITE;
1216         if (create) {
1217             hdr.opcode = SD_OP_CREATE_AND_WRITE_OBJ;
1218         } else {
1219             hdr.opcode = SD_OP_WRITE_OBJ;
1220         }
1221     } else {
1222         wlen = 0;
1223         rlen = datalen;
1224         hdr.opcode = SD_OP_READ_OBJ;
1225     }
1226
1227     hdr.flags |= cache_flags;
1228
1229     hdr.oid = oid;
1230     hdr.data_length = datalen;
1231     hdr.offset = offset;
1232     hdr.copies = copies;
1233
1234     ret = do_req(fd, (SheepdogReq *)&hdr, buf, &wlen, &rlen);
1235     if (ret) {
1236         error_report("failed to send a request to the sheep");
1237         return ret;
1238     }
1239
1240     switch (rsp->result) {
1241     case SD_RES_SUCCESS:
1242         return 0;
1243     default:
1244         error_report("%s", sd_strerror(rsp->result));
1245         return -EIO;
1246     }
1247 }
1248
1249 static int read_object(int fd, char *buf, uint64_t oid, uint8_t copies,
1250                        unsigned int datalen, uint64_t offset,
1251                        uint32_t cache_flags)
1252 {
1253     return read_write_object(fd, buf, oid, copies, datalen, offset, false,
1254                              false, cache_flags);
1255 }
1256
1257 static int write_object(int fd, char *buf, uint64_t oid, uint8_t copies,
1258                         unsigned int datalen, uint64_t offset, bool create,
1259                         uint32_t cache_flags)
1260 {
1261     return read_write_object(fd, buf, oid, copies, datalen, offset, true,
1262                              create, cache_flags);
1263 }
1264
1265 /* update inode with the latest state */
1266 static int reload_inode(BDRVSheepdogState *s, uint32_t snapid, const char *tag)
1267 {
1268     Error *local_err = NULL;
1269     SheepdogInode *inode;
1270     int ret = 0, fd;
1271     uint32_t vid = 0;
1272
1273     fd = connect_to_sdog(s, &local_err);
1274     if (fd < 0) {
1275         qerror_report_err(local_err);
1276         error_free(local_err);
1277         return -EIO;
1278     }
1279
1280     inode = g_malloc(sizeof(s->inode));
1281
1282     ret = find_vdi_name(s, s->name, snapid, tag, &vid, false);
1283     if (ret) {
1284         goto out;
1285     }
1286
1287     ret = read_object(fd, (char *)inode, vid_to_vdi_oid(vid),
1288                       s->inode.nr_copies, sizeof(*inode), 0, s->cache_flags);
1289     if (ret < 0) {
1290         goto out;
1291     }
1292
1293     if (inode->vdi_id != s->inode.vdi_id) {
1294         memcpy(&s->inode, inode, sizeof(s->inode));
1295     }
1296
1297 out:
1298     g_free(inode);
1299     closesocket(fd);
1300
1301     return ret;
1302 }
1303
1304 /* Return true if the specified request is linked to the pending list. */
1305 static bool check_simultaneous_create(BDRVSheepdogState *s, AIOReq *aio_req)
1306 {
1307     AIOReq *areq;
1308     QLIST_FOREACH(areq, &s->inflight_aio_head, aio_siblings) {
1309         if (areq != aio_req && areq->oid == aio_req->oid) {
1310             /*
1311              * Sheepdog cannot handle simultaneous create requests to the same
1312              * object, so we cannot send the request until the previous request
1313              * finishes.
1314              */
1315             DPRINTF("simultaneous create to %" PRIx64 "\n", aio_req->oid);
1316             aio_req->flags = 0;
1317             aio_req->base_oid = 0;
1318             QLIST_REMOVE(aio_req, aio_siblings);
1319             QLIST_INSERT_HEAD(&s->pending_aio_head, aio_req, aio_siblings);
1320             return true;
1321         }
1322     }
1323
1324     return false;
1325 }
1326
1327 static void coroutine_fn resend_aioreq(BDRVSheepdogState *s, AIOReq *aio_req)
1328 {
1329     SheepdogAIOCB *acb = aio_req->aiocb;
1330     bool create = false;
1331
1332     /* check whether this request becomes a CoW one */
1333     if (acb->aiocb_type == AIOCB_WRITE_UDATA && is_data_obj(aio_req->oid)) {
1334         int idx = data_oid_to_idx(aio_req->oid);
1335
1336         if (is_data_obj_writable(&s->inode, idx)) {
1337             goto out;
1338         }
1339
1340         if (check_simultaneous_create(s, aio_req)) {
1341             return;
1342         }
1343
1344         if (s->inode.data_vdi_id[idx]) {
1345             aio_req->base_oid = vid_to_data_oid(s->inode.data_vdi_id[idx], idx);
1346             aio_req->flags |= SD_FLAG_CMD_COW;
1347         }
1348         create = true;
1349     }
1350 out:
1351     if (is_data_obj(aio_req->oid)) {
1352         add_aio_request(s, aio_req, acb->qiov->iov, acb->qiov->niov, create,
1353                         acb->aiocb_type);
1354     } else {
1355         struct iovec iov;
1356         iov.iov_base = &s->inode;
1357         iov.iov_len = sizeof(s->inode);
1358         add_aio_request(s, aio_req, &iov, 1, false, AIOCB_WRITE_UDATA);
1359     }
1360 }
1361
1362 /* TODO Convert to fine grained options */
1363 static QemuOptsList runtime_opts = {
1364     .name = "sheepdog",
1365     .head = QTAILQ_HEAD_INITIALIZER(runtime_opts.head),
1366     .desc = {
1367         {
1368             .name = "filename",
1369             .type = QEMU_OPT_STRING,
1370             .help = "URL to the sheepdog image",
1371         },
1372         { /* end of list */ }
1373     },
1374 };
1375
1376 static int sd_open(BlockDriverState *bs, QDict *options, int flags,
1377                    Error **errp)
1378 {
1379     int ret, fd;
1380     uint32_t vid = 0;
1381     BDRVSheepdogState *s = bs->opaque;
1382     char vdi[SD_MAX_VDI_LEN], tag[SD_MAX_VDI_TAG_LEN];
1383     uint32_t snapid;
1384     char *buf = NULL;
1385     QemuOpts *opts;
1386     Error *local_err = NULL;
1387     const char *filename;
1388
1389     s->bs = bs;
1390
1391     opts = qemu_opts_create(&runtime_opts, NULL, 0, &error_abort);
1392     qemu_opts_absorb_qdict(opts, options, &local_err);
1393     if (local_err) {
1394         qerror_report_err(local_err);
1395         error_free(local_err);
1396         ret = -EINVAL;
1397         goto out;
1398     }
1399
1400     filename = qemu_opt_get(opts, "filename");
1401
1402     QLIST_INIT(&s->inflight_aio_head);
1403     QLIST_INIT(&s->pending_aio_head);
1404     QLIST_INIT(&s->failed_aio_head);
1405     s->fd = -1;
1406
1407     memset(vdi, 0, sizeof(vdi));
1408     memset(tag, 0, sizeof(tag));
1409
1410     if (strstr(filename, "://")) {
1411         ret = sd_parse_uri(s, filename, vdi, &snapid, tag);
1412     } else {
1413         ret = parse_vdiname(s, filename, vdi, &snapid, tag);
1414     }
1415     if (ret < 0) {
1416         goto out;
1417     }
1418     s->fd = get_sheep_fd(s, &local_err);
1419     if (s->fd < 0) {
1420         qerror_report_err(local_err);
1421         error_free(local_err);
1422         ret = s->fd;
1423         goto out;
1424     }
1425
1426     ret = find_vdi_name(s, vdi, snapid, tag, &vid, true);
1427     if (ret) {
1428         goto out;
1429     }
1430
1431     /*
1432      * QEMU block layer emulates writethrough cache as 'writeback + flush', so
1433      * we always set SD_FLAG_CMD_CACHE (writeback cache) as default.
1434      */
1435     s->cache_flags = SD_FLAG_CMD_CACHE;
1436     if (flags & BDRV_O_NOCACHE) {
1437         s->cache_flags = SD_FLAG_CMD_DIRECT;
1438     }
1439     s->discard_supported = true;
1440
1441     if (snapid || tag[0] != '\0') {
1442         DPRINTF("%" PRIx32 " snapshot inode was open.\n", vid);
1443         s->is_snapshot = true;
1444     }
1445
1446     fd = connect_to_sdog(s, &local_err);
1447     if (fd < 0) {
1448         qerror_report_err(local_err);
1449         error_free(local_err);
1450         ret = fd;
1451         goto out;
1452     }
1453
1454     buf = g_malloc(SD_INODE_SIZE);
1455     ret = read_object(fd, buf, vid_to_vdi_oid(vid), 0, SD_INODE_SIZE, 0,
1456                       s->cache_flags);
1457
1458     closesocket(fd);
1459
1460     if (ret) {
1461         goto out;
1462     }
1463
1464     memcpy(&s->inode, buf, sizeof(s->inode));
1465     s->min_dirty_data_idx = UINT32_MAX;
1466     s->max_dirty_data_idx = 0;
1467
1468     bs->total_sectors = s->inode.vdi_size / BDRV_SECTOR_SIZE;
1469     pstrcpy(s->name, sizeof(s->name), vdi);
1470     qemu_co_mutex_init(&s->lock);
1471     qemu_opts_del(opts);
1472     g_free(buf);
1473     return 0;
1474 out:
1475     qemu_aio_set_fd_handler(s->fd, NULL, NULL, NULL);
1476     if (s->fd >= 0) {
1477         closesocket(s->fd);
1478     }
1479     qemu_opts_del(opts);
1480     g_free(buf);
1481     return ret;
1482 }
1483
1484 static int do_sd_create(BDRVSheepdogState *s, uint32_t *vdi_id, int snapshot)
1485 {
1486     Error *local_err = NULL;
1487     SheepdogVdiReq hdr;
1488     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1489     int fd, ret;
1490     unsigned int wlen, rlen = 0;
1491     char buf[SD_MAX_VDI_LEN];
1492
1493     fd = connect_to_sdog(s, &local_err);
1494     if (fd < 0) {
1495         qerror_report_err(local_err);
1496         error_free(local_err);
1497         return fd;
1498     }
1499
1500     /* FIXME: would it be better to fail (e.g., return -EIO) when filename
1501      * does not fit in buf?  For now, just truncate and avoid buffer overrun.
1502      */
1503     memset(buf, 0, sizeof(buf));
1504     pstrcpy(buf, sizeof(buf), s->name);
1505
1506     memset(&hdr, 0, sizeof(hdr));
1507     hdr.opcode = SD_OP_NEW_VDI;
1508     hdr.base_vdi_id = s->inode.vdi_id;
1509
1510     wlen = SD_MAX_VDI_LEN;
1511
1512     hdr.flags = SD_FLAG_CMD_WRITE;
1513     hdr.snapid = snapshot;
1514
1515     hdr.data_length = wlen;
1516     hdr.vdi_size = s->inode.vdi_size;
1517     hdr.copy_policy = s->inode.copy_policy;
1518     hdr.copies = s->inode.nr_copies;
1519
1520     ret = do_req(fd, (SheepdogReq *)&hdr, buf, &wlen, &rlen);
1521
1522     closesocket(fd);
1523
1524     if (ret) {
1525         return ret;
1526     }
1527
1528     if (rsp->result != SD_RES_SUCCESS) {
1529         error_report("%s, %s", sd_strerror(rsp->result), s->inode.name);
1530         return -EIO;
1531     }
1532
1533     if (vdi_id) {
1534         *vdi_id = rsp->vdi_id;
1535     }
1536
1537     return 0;
1538 }
1539
1540 static int sd_prealloc(const char *filename, Error **errp)
1541 {
1542     BlockDriverState *bs = NULL;
1543     uint32_t idx, max_idx;
1544     int64_t vdi_size;
1545     void *buf = g_malloc0(SD_DATA_OBJ_SIZE);
1546     int ret;
1547
1548     ret = bdrv_open(&bs, filename, NULL, NULL, BDRV_O_RDWR | BDRV_O_PROTOCOL,
1549                     NULL, errp);
1550     if (ret < 0) {
1551         goto out_with_err_set;
1552     }
1553
1554     vdi_size = bdrv_getlength(bs);
1555     if (vdi_size < 0) {
1556         ret = vdi_size;
1557         goto out;
1558     }
1559     max_idx = DIV_ROUND_UP(vdi_size, SD_DATA_OBJ_SIZE);
1560
1561     for (idx = 0; idx < max_idx; idx++) {
1562         /*
1563          * The created image can be a cloned image, so we need to read
1564          * a data from the source image.
1565          */
1566         ret = bdrv_pread(bs, idx * SD_DATA_OBJ_SIZE, buf, SD_DATA_OBJ_SIZE);
1567         if (ret < 0) {
1568             goto out;
1569         }
1570         ret = bdrv_pwrite(bs, idx * SD_DATA_OBJ_SIZE, buf, SD_DATA_OBJ_SIZE);
1571         if (ret < 0) {
1572             goto out;
1573         }
1574     }
1575
1576 out:
1577     if (ret < 0) {
1578         error_setg_errno(errp, -ret, "Can't pre-allocate");
1579     }
1580 out_with_err_set:
1581     if (bs) {
1582         bdrv_unref(bs);
1583     }
1584     g_free(buf);
1585
1586     return ret;
1587 }
1588
1589 /*
1590  * Sheepdog support two kinds of redundancy, full replication and erasure
1591  * coding.
1592  *
1593  * # create a fully replicated vdi with x copies
1594  * -o redundancy=x (1 <= x <= SD_MAX_COPIES)
1595  *
1596  * # create a erasure coded vdi with x data strips and y parity strips
1597  * -o redundancy=x:y (x must be one of {2,4,8,16} and 1 <= y < SD_EC_MAX_STRIP)
1598  */
1599 static int parse_redundancy(BDRVSheepdogState *s, const char *opt)
1600 {
1601     struct SheepdogInode *inode = &s->inode;
1602     const char *n1, *n2;
1603     long copy, parity;
1604     char p[10];
1605
1606     pstrcpy(p, sizeof(p), opt);
1607     n1 = strtok(p, ":");
1608     n2 = strtok(NULL, ":");
1609
1610     if (!n1) {
1611         return -EINVAL;
1612     }
1613
1614     copy = strtol(n1, NULL, 10);
1615     if (copy > SD_MAX_COPIES || copy < 1) {
1616         return -EINVAL;
1617     }
1618     if (!n2) {
1619         inode->copy_policy = 0;
1620         inode->nr_copies = copy;
1621         return 0;
1622     }
1623
1624     if (copy != 2 && copy != 4 && copy != 8 && copy != 16) {
1625         return -EINVAL;
1626     }
1627
1628     parity = strtol(n2, NULL, 10);
1629     if (parity >= SD_EC_MAX_STRIP || parity < 1) {
1630         return -EINVAL;
1631     }
1632
1633     /*
1634      * 4 bits for parity and 4 bits for data.
1635      * We have to compress upper data bits because it can't represent 16
1636      */
1637     inode->copy_policy = ((copy / 2) << 4) + parity;
1638     inode->nr_copies = copy + parity;
1639
1640     return 0;
1641 }
1642
1643 static int sd_create(const char *filename, QEMUOptionParameter *options,
1644                      Error **errp)
1645 {
1646     int ret = 0;
1647     uint32_t vid = 0;
1648     char *backing_file = NULL;
1649     BDRVSheepdogState *s;
1650     char tag[SD_MAX_VDI_TAG_LEN];
1651     uint32_t snapid;
1652     bool prealloc = false;
1653     Error *local_err = NULL;
1654
1655     s = g_malloc0(sizeof(BDRVSheepdogState));
1656
1657     memset(tag, 0, sizeof(tag));
1658     if (strstr(filename, "://")) {
1659         ret = sd_parse_uri(s, filename, s->name, &snapid, tag);
1660     } else {
1661         ret = parse_vdiname(s, filename, s->name, &snapid, tag);
1662     }
1663     if (ret < 0) {
1664         goto out;
1665     }
1666
1667     while (options && options->name) {
1668         if (!strcmp(options->name, BLOCK_OPT_SIZE)) {
1669             s->inode.vdi_size = options->value.n;
1670         } else if (!strcmp(options->name, BLOCK_OPT_BACKING_FILE)) {
1671             backing_file = options->value.s;
1672         } else if (!strcmp(options->name, BLOCK_OPT_PREALLOC)) {
1673             if (!options->value.s || !strcmp(options->value.s, "off")) {
1674                 prealloc = false;
1675             } else if (!strcmp(options->value.s, "full")) {
1676                 prealloc = true;
1677             } else {
1678                 error_report("Invalid preallocation mode: '%s'",
1679                              options->value.s);
1680                 ret = -EINVAL;
1681                 goto out;
1682             }
1683         } else if (!strcmp(options->name, BLOCK_OPT_REDUNDANCY)) {
1684             if (options->value.s) {
1685                 ret = parse_redundancy(s, options->value.s);
1686                 if (ret < 0) {
1687                     goto out;
1688                 }
1689             }
1690         }
1691         options++;
1692     }
1693
1694     if (s->inode.vdi_size > SD_MAX_VDI_SIZE) {
1695         error_report("too big image size");
1696         ret = -EINVAL;
1697         goto out;
1698     }
1699
1700     if (backing_file) {
1701         BlockDriverState *bs;
1702         BDRVSheepdogState *base;
1703         BlockDriver *drv;
1704
1705         /* Currently, only Sheepdog backing image is supported. */
1706         drv = bdrv_find_protocol(backing_file, true);
1707         if (!drv || strcmp(drv->protocol_name, "sheepdog") != 0) {
1708             error_report("backing_file must be a sheepdog image");
1709             ret = -EINVAL;
1710             goto out;
1711         }
1712
1713         bs = NULL;
1714         ret = bdrv_open(&bs, backing_file, NULL, NULL, BDRV_O_PROTOCOL, NULL,
1715                         &local_err);
1716         if (ret < 0) {
1717             qerror_report_err(local_err);
1718             error_free(local_err);
1719             goto out;
1720         }
1721
1722         base = bs->opaque;
1723
1724         if (!is_snapshot(&base->inode)) {
1725             error_report("cannot clone from a non snapshot vdi");
1726             bdrv_unref(bs);
1727             ret = -EINVAL;
1728             goto out;
1729         }
1730         s->inode.vdi_id = base->inode.vdi_id;
1731         bdrv_unref(bs);
1732     }
1733
1734     ret = do_sd_create(s, &vid, 0);
1735     if (!prealloc || ret) {
1736         goto out;
1737     }
1738
1739     ret = sd_prealloc(filename, &local_err);
1740     if (ret < 0) {
1741         qerror_report_err(local_err);
1742         error_free(local_err);
1743     }
1744 out:
1745     g_free(s);
1746     return ret;
1747 }
1748
1749 static void sd_close(BlockDriverState *bs)
1750 {
1751     Error *local_err = NULL;
1752     BDRVSheepdogState *s = bs->opaque;
1753     SheepdogVdiReq hdr;
1754     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1755     unsigned int wlen, rlen = 0;
1756     int fd, ret;
1757
1758     DPRINTF("%s\n", s->name);
1759
1760     fd = connect_to_sdog(s, &local_err);
1761     if (fd < 0) {
1762         qerror_report_err(local_err);
1763         error_free(local_err);
1764         return;
1765     }
1766
1767     memset(&hdr, 0, sizeof(hdr));
1768
1769     hdr.opcode = SD_OP_RELEASE_VDI;
1770     hdr.base_vdi_id = s->inode.vdi_id;
1771     wlen = strlen(s->name) + 1;
1772     hdr.data_length = wlen;
1773     hdr.flags = SD_FLAG_CMD_WRITE;
1774
1775     ret = do_req(fd, (SheepdogReq *)&hdr, s->name, &wlen, &rlen);
1776
1777     closesocket(fd);
1778
1779     if (!ret && rsp->result != SD_RES_SUCCESS &&
1780         rsp->result != SD_RES_VDI_NOT_LOCKED) {
1781         error_report("%s, %s", sd_strerror(rsp->result), s->name);
1782     }
1783
1784     qemu_aio_set_fd_handler(s->fd, NULL, NULL, NULL);
1785     closesocket(s->fd);
1786     g_free(s->host_spec);
1787 }
1788
1789 static int64_t sd_getlength(BlockDriverState *bs)
1790 {
1791     BDRVSheepdogState *s = bs->opaque;
1792
1793     return s->inode.vdi_size;
1794 }
1795
1796 static int sd_truncate(BlockDriverState *bs, int64_t offset)
1797 {
1798     Error *local_err = NULL;
1799     BDRVSheepdogState *s = bs->opaque;
1800     int ret, fd;
1801     unsigned int datalen;
1802
1803     if (offset < s->inode.vdi_size) {
1804         error_report("shrinking is not supported");
1805         return -EINVAL;
1806     } else if (offset > SD_MAX_VDI_SIZE) {
1807         error_report("too big image size");
1808         return -EINVAL;
1809     }
1810
1811     fd = connect_to_sdog(s, &local_err);
1812     if (fd < 0) {
1813         qerror_report_err(local_err);
1814         error_free(local_err);
1815         return fd;
1816     }
1817
1818     /* we don't need to update entire object */
1819     datalen = SD_INODE_SIZE - sizeof(s->inode.data_vdi_id);
1820     s->inode.vdi_size = offset;
1821     ret = write_object(fd, (char *)&s->inode, vid_to_vdi_oid(s->inode.vdi_id),
1822                        s->inode.nr_copies, datalen, 0, false, s->cache_flags);
1823     close(fd);
1824
1825     if (ret < 0) {
1826         error_report("failed to update an inode.");
1827     }
1828
1829     return ret;
1830 }
1831
1832 /*
1833  * This function is called after writing data objects.  If we need to
1834  * update metadata, this sends a write request to the vdi object.
1835  * Otherwise, this switches back to sd_co_readv/writev.
1836  */
1837 static void coroutine_fn sd_write_done(SheepdogAIOCB *acb)
1838 {
1839     BDRVSheepdogState *s = acb->common.bs->opaque;
1840     struct iovec iov;
1841     AIOReq *aio_req;
1842     uint32_t offset, data_len, mn, mx;
1843
1844     mn = s->min_dirty_data_idx;
1845     mx = s->max_dirty_data_idx;
1846     if (mn <= mx) {
1847         /* we need to update the vdi object. */
1848         offset = sizeof(s->inode) - sizeof(s->inode.data_vdi_id) +
1849             mn * sizeof(s->inode.data_vdi_id[0]);
1850         data_len = (mx - mn + 1) * sizeof(s->inode.data_vdi_id[0]);
1851
1852         s->min_dirty_data_idx = UINT32_MAX;
1853         s->max_dirty_data_idx = 0;
1854
1855         iov.iov_base = &s->inode;
1856         iov.iov_len = sizeof(s->inode);
1857         aio_req = alloc_aio_req(s, acb, vid_to_vdi_oid(s->inode.vdi_id),
1858                                 data_len, offset, 0, 0, offset);
1859         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
1860         add_aio_request(s, aio_req, &iov, 1, false, AIOCB_WRITE_UDATA);
1861
1862         acb->aio_done_func = sd_finish_aiocb;
1863         acb->aiocb_type = AIOCB_WRITE_UDATA;
1864         return;
1865     }
1866
1867     sd_finish_aiocb(acb);
1868 }
1869
1870 /* Delete current working VDI on the snapshot chain */
1871 static bool sd_delete(BDRVSheepdogState *s)
1872 {
1873     Error *local_err = NULL;
1874     unsigned int wlen = SD_MAX_VDI_LEN, rlen = 0;
1875     SheepdogVdiReq hdr = {
1876         .opcode = SD_OP_DEL_VDI,
1877         .base_vdi_id = s->inode.vdi_id,
1878         .data_length = wlen,
1879         .flags = SD_FLAG_CMD_WRITE,
1880     };
1881     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1882     int fd, ret;
1883
1884     fd = connect_to_sdog(s, &local_err);
1885     if (fd < 0) {
1886         qerror_report_err(local_err);
1887         error_free(local_err);
1888         return false;
1889     }
1890
1891     ret = do_req(fd, (SheepdogReq *)&hdr, s->name, &wlen, &rlen);
1892     closesocket(fd);
1893     if (ret) {
1894         return false;
1895     }
1896     switch (rsp->result) {
1897     case SD_RES_NO_VDI:
1898         error_report("%s was already deleted", s->name);
1899         /* fall through */
1900     case SD_RES_SUCCESS:
1901         break;
1902     default:
1903         error_report("%s, %s", sd_strerror(rsp->result), s->name);
1904         return false;
1905     }
1906
1907     return true;
1908 }
1909
1910 /*
1911  * Create a writable VDI from a snapshot
1912  */
1913 static int sd_create_branch(BDRVSheepdogState *s)
1914 {
1915     Error *local_err = NULL;
1916     int ret, fd;
1917     uint32_t vid;
1918     char *buf;
1919     bool deleted;
1920
1921     DPRINTF("%" PRIx32 " is snapshot.\n", s->inode.vdi_id);
1922
1923     buf = g_malloc(SD_INODE_SIZE);
1924
1925     /*
1926      * Even If deletion fails, we will just create extra snapshot based on
1927      * the working VDI which was supposed to be deleted. So no need to
1928      * false bail out.
1929      */
1930     deleted = sd_delete(s);
1931     ret = do_sd_create(s, &vid, !deleted);
1932     if (ret) {
1933         goto out;
1934     }
1935
1936     DPRINTF("%" PRIx32 " is created.\n", vid);
1937
1938     fd = connect_to_sdog(s, &local_err);
1939     if (fd < 0) {
1940         qerror_report_err(local_err);
1941         error_free(local_err);
1942         ret = fd;
1943         goto out;
1944     }
1945
1946     ret = read_object(fd, buf, vid_to_vdi_oid(vid), s->inode.nr_copies,
1947                       SD_INODE_SIZE, 0, s->cache_flags);
1948
1949     closesocket(fd);
1950
1951     if (ret < 0) {
1952         goto out;
1953     }
1954
1955     memcpy(&s->inode, buf, sizeof(s->inode));
1956
1957     s->is_snapshot = false;
1958     ret = 0;
1959     DPRINTF("%" PRIx32 " was newly created.\n", s->inode.vdi_id);
1960
1961 out:
1962     g_free(buf);
1963
1964     return ret;
1965 }
1966
1967 /*
1968  * Send I/O requests to the server.
1969  *
1970  * This function sends requests to the server, links the requests to
1971  * the inflight_list in BDRVSheepdogState, and exits without
1972  * waiting the response.  The responses are received in the
1973  * `aio_read_response' function which is called from the main loop as
1974  * a fd handler.
1975  *
1976  * Returns 1 when we need to wait a response, 0 when there is no sent
1977  * request and -errno in error cases.
1978  */
1979 static int coroutine_fn sd_co_rw_vector(void *p)
1980 {
1981     SheepdogAIOCB *acb = p;
1982     int ret = 0;
1983     unsigned long len, done = 0, total = acb->nb_sectors * BDRV_SECTOR_SIZE;
1984     unsigned long idx = acb->sector_num * BDRV_SECTOR_SIZE / SD_DATA_OBJ_SIZE;
1985     uint64_t oid;
1986     uint64_t offset = (acb->sector_num * BDRV_SECTOR_SIZE) % SD_DATA_OBJ_SIZE;
1987     BDRVSheepdogState *s = acb->common.bs->opaque;
1988     SheepdogInode *inode = &s->inode;
1989     AIOReq *aio_req;
1990
1991     if (acb->aiocb_type == AIOCB_WRITE_UDATA && s->is_snapshot) {
1992         /*
1993          * In the case we open the snapshot VDI, Sheepdog creates the
1994          * writable VDI when we do a write operation first.
1995          */
1996         ret = sd_create_branch(s);
1997         if (ret) {
1998             acb->ret = -EIO;
1999             goto out;
2000         }
2001     }
2002
2003     /*
2004      * Make sure we don't free the aiocb before we are done with all requests.
2005      * This additional reference is dropped at the end of this function.
2006      */
2007     acb->nr_pending++;
2008
2009     while (done != total) {
2010         uint8_t flags = 0;
2011         uint64_t old_oid = 0;
2012         bool create = false;
2013
2014         oid = vid_to_data_oid(inode->data_vdi_id[idx], idx);
2015
2016         len = MIN(total - done, SD_DATA_OBJ_SIZE - offset);
2017
2018         switch (acb->aiocb_type) {
2019         case AIOCB_READ_UDATA:
2020             if (!inode->data_vdi_id[idx]) {
2021                 qemu_iovec_memset(acb->qiov, done, 0, len);
2022                 goto done;
2023             }
2024             break;
2025         case AIOCB_WRITE_UDATA:
2026             if (!inode->data_vdi_id[idx]) {
2027                 create = true;
2028             } else if (!is_data_obj_writable(inode, idx)) {
2029                 /* Copy-On-Write */
2030                 create = true;
2031                 old_oid = oid;
2032                 flags = SD_FLAG_CMD_COW;
2033             }
2034             break;
2035         case AIOCB_DISCARD_OBJ:
2036             /*
2037              * We discard the object only when the whole object is
2038              * 1) allocated 2) trimmed. Otherwise, simply skip it.
2039              */
2040             if (len != SD_DATA_OBJ_SIZE || inode->data_vdi_id[idx] == 0) {
2041                 goto done;
2042             }
2043             break;
2044         default:
2045             break;
2046         }
2047
2048         if (create) {
2049             DPRINTF("update ino (%" PRIu32 ") %" PRIu64 " %" PRIu64 " %ld\n",
2050                     inode->vdi_id, oid,
2051                     vid_to_data_oid(inode->data_vdi_id[idx], idx), idx);
2052             oid = vid_to_data_oid(inode->vdi_id, idx);
2053             DPRINTF("new oid %" PRIx64 "\n", oid);
2054         }
2055
2056         aio_req = alloc_aio_req(s, acb, oid, len, offset, flags, old_oid, done);
2057         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
2058
2059         if (create) {
2060             if (check_simultaneous_create(s, aio_req)) {
2061                 goto done;
2062             }
2063         }
2064
2065         add_aio_request(s, aio_req, acb->qiov->iov, acb->qiov->niov, create,
2066                         acb->aiocb_type);
2067     done:
2068         offset = 0;
2069         idx++;
2070         done += len;
2071     }
2072 out:
2073     if (!--acb->nr_pending) {
2074         return acb->ret;
2075     }
2076     return 1;
2077 }
2078
2079 static coroutine_fn int sd_co_writev(BlockDriverState *bs, int64_t sector_num,
2080                         int nb_sectors, QEMUIOVector *qiov)
2081 {
2082     SheepdogAIOCB *acb;
2083     int ret;
2084     int64_t offset = (sector_num + nb_sectors) * BDRV_SECTOR_SIZE;
2085     BDRVSheepdogState *s = bs->opaque;
2086
2087     if (bs->growable && offset > s->inode.vdi_size) {
2088         ret = sd_truncate(bs, offset);
2089         if (ret < 0) {
2090             return ret;
2091         }
2092     }
2093
2094     acb = sd_aio_setup(bs, qiov, sector_num, nb_sectors);
2095     acb->aio_done_func = sd_write_done;
2096     acb->aiocb_type = AIOCB_WRITE_UDATA;
2097
2098     ret = sd_co_rw_vector(acb);
2099     if (ret <= 0) {
2100         qemu_aio_release(acb);
2101         return ret;
2102     }
2103
2104     qemu_coroutine_yield();
2105
2106     return acb->ret;
2107 }
2108
2109 static coroutine_fn int sd_co_readv(BlockDriverState *bs, int64_t sector_num,
2110                        int nb_sectors, QEMUIOVector *qiov)
2111 {
2112     SheepdogAIOCB *acb;
2113     int ret;
2114
2115     acb = sd_aio_setup(bs, qiov, sector_num, nb_sectors);
2116     acb->aiocb_type = AIOCB_READ_UDATA;
2117     acb->aio_done_func = sd_finish_aiocb;
2118
2119     ret = sd_co_rw_vector(acb);
2120     if (ret <= 0) {
2121         qemu_aio_release(acb);
2122         return ret;
2123     }
2124
2125     qemu_coroutine_yield();
2126
2127     return acb->ret;
2128 }
2129
2130 static int coroutine_fn sd_co_flush_to_disk(BlockDriverState *bs)
2131 {
2132     BDRVSheepdogState *s = bs->opaque;
2133     SheepdogAIOCB *acb;
2134     AIOReq *aio_req;
2135
2136     if (s->cache_flags != SD_FLAG_CMD_CACHE) {
2137         return 0;
2138     }
2139
2140     acb = sd_aio_setup(bs, NULL, 0, 0);
2141     acb->aiocb_type = AIOCB_FLUSH_CACHE;
2142     acb->aio_done_func = sd_finish_aiocb;
2143
2144     aio_req = alloc_aio_req(s, acb, vid_to_vdi_oid(s->inode.vdi_id),
2145                             0, 0, 0, 0, 0);
2146     QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
2147     add_aio_request(s, aio_req, NULL, 0, false, acb->aiocb_type);
2148
2149     qemu_coroutine_yield();
2150     return acb->ret;
2151 }
2152
2153 static int sd_snapshot_create(BlockDriverState *bs, QEMUSnapshotInfo *sn_info)
2154 {
2155     Error *local_err = NULL;
2156     BDRVSheepdogState *s = bs->opaque;
2157     int ret, fd;
2158     uint32_t new_vid;
2159     SheepdogInode *inode;
2160     unsigned int datalen;
2161
2162     DPRINTF("sn_info: name %s id_str %s s: name %s vm_state_size %" PRId64 " "
2163             "is_snapshot %d\n", sn_info->name, sn_info->id_str,
2164             s->name, sn_info->vm_state_size, s->is_snapshot);
2165
2166     if (s->is_snapshot) {
2167         error_report("You can't create a snapshot of a snapshot VDI, "
2168                      "%s (%" PRIu32 ").", s->name, s->inode.vdi_id);
2169
2170         return -EINVAL;
2171     }
2172
2173     DPRINTF("%s %s\n", sn_info->name, sn_info->id_str);
2174
2175     s->inode.vm_state_size = sn_info->vm_state_size;
2176     s->inode.vm_clock_nsec = sn_info->vm_clock_nsec;
2177     /* It appears that inode.tag does not require a NUL terminator,
2178      * which means this use of strncpy is ok.
2179      */
2180     strncpy(s->inode.tag, sn_info->name, sizeof(s->inode.tag));
2181     /* we don't need to update entire object */
2182     datalen = SD_INODE_SIZE - sizeof(s->inode.data_vdi_id);
2183
2184     /* refresh inode. */
2185     fd = connect_to_sdog(s, &local_err);
2186     if (fd < 0) {
2187         qerror_report_err(local_err);
2188         error_free(local_err);
2189         ret = fd;
2190         goto cleanup;
2191     }
2192
2193     ret = write_object(fd, (char *)&s->inode, vid_to_vdi_oid(s->inode.vdi_id),
2194                        s->inode.nr_copies, datalen, 0, false, s->cache_flags);
2195     if (ret < 0) {
2196         error_report("failed to write snapshot's inode.");
2197         goto cleanup;
2198     }
2199
2200     ret = do_sd_create(s, &new_vid, 1);
2201     if (ret < 0) {
2202         error_report("failed to create inode for snapshot. %s",
2203                      strerror(errno));
2204         goto cleanup;
2205     }
2206
2207     inode = (SheepdogInode *)g_malloc(datalen);
2208
2209     ret = read_object(fd, (char *)inode, vid_to_vdi_oid(new_vid),
2210                       s->inode.nr_copies, datalen, 0, s->cache_flags);
2211
2212     if (ret < 0) {
2213         error_report("failed to read new inode info. %s", strerror(errno));
2214         goto cleanup;
2215     }
2216
2217     memcpy(&s->inode, inode, datalen);
2218     DPRINTF("s->inode: name %s snap_id %x oid %x\n",
2219             s->inode.name, s->inode.snap_id, s->inode.vdi_id);
2220
2221 cleanup:
2222     closesocket(fd);
2223     return ret;
2224 }
2225
2226 /*
2227  * We implement rollback(loadvm) operation to the specified snapshot by
2228  * 1) switch to the snapshot
2229  * 2) rely on sd_create_branch to delete working VDI and
2230  * 3) create a new working VDI based on the specified snapshot
2231  */
2232 static int sd_snapshot_goto(BlockDriverState *bs, const char *snapshot_id)
2233 {
2234     BDRVSheepdogState *s = bs->opaque;
2235     BDRVSheepdogState *old_s;
2236     char tag[SD_MAX_VDI_TAG_LEN];
2237     uint32_t snapid = 0;
2238     int ret = 0;
2239
2240     old_s = g_malloc(sizeof(BDRVSheepdogState));
2241
2242     memcpy(old_s, s, sizeof(BDRVSheepdogState));
2243
2244     snapid = strtoul(snapshot_id, NULL, 10);
2245     if (snapid) {
2246         tag[0] = 0;
2247     } else {
2248         pstrcpy(tag, sizeof(tag), snapshot_id);
2249     }
2250
2251     ret = reload_inode(s, snapid, tag);
2252     if (ret) {
2253         goto out;
2254     }
2255
2256     ret = sd_create_branch(s);
2257     if (ret) {
2258         goto out;
2259     }
2260
2261     g_free(old_s);
2262
2263     return 0;
2264 out:
2265     /* recover bdrv_sd_state */
2266     memcpy(s, old_s, sizeof(BDRVSheepdogState));
2267     g_free(old_s);
2268
2269     error_report("failed to open. recover old bdrv_sd_state.");
2270
2271     return ret;
2272 }
2273
2274 static int sd_snapshot_delete(BlockDriverState *bs,
2275                               const char *snapshot_id,
2276                               const char *name,
2277                               Error **errp)
2278 {
2279     /* FIXME: Delete specified snapshot id.  */
2280     return 0;
2281 }
2282
2283 static int sd_snapshot_list(BlockDriverState *bs, QEMUSnapshotInfo **psn_tab)
2284 {
2285     Error *local_err = NULL;
2286     BDRVSheepdogState *s = bs->opaque;
2287     SheepdogReq req;
2288     int fd, nr = 1024, ret, max = BITS_TO_LONGS(SD_NR_VDIS) * sizeof(long);
2289     QEMUSnapshotInfo *sn_tab = NULL;
2290     unsigned wlen, rlen;
2291     int found = 0;
2292     static SheepdogInode inode;
2293     unsigned long *vdi_inuse;
2294     unsigned int start_nr;
2295     uint64_t hval;
2296     uint32_t vid;
2297
2298     vdi_inuse = g_malloc(max);
2299
2300     fd = connect_to_sdog(s, &local_err);
2301     if (fd < 0) {
2302         qerror_report_err(local_err);
2303         error_free(local_err);
2304         ret = fd;
2305         goto out;
2306     }
2307
2308     rlen = max;
2309     wlen = 0;
2310
2311     memset(&req, 0, sizeof(req));
2312
2313     req.opcode = SD_OP_READ_VDIS;
2314     req.data_length = max;
2315
2316     ret = do_req(fd, (SheepdogReq *)&req, vdi_inuse, &wlen, &rlen);
2317
2318     closesocket(fd);
2319     if (ret) {
2320         goto out;
2321     }
2322
2323     sn_tab = g_malloc0(nr * sizeof(*sn_tab));
2324
2325     /* calculate a vdi id with hash function */
2326     hval = fnv_64a_buf(s->name, strlen(s->name), FNV1A_64_INIT);
2327     start_nr = hval & (SD_NR_VDIS - 1);
2328
2329     fd = connect_to_sdog(s, &local_err);
2330     if (fd < 0) {
2331         qerror_report_err(local_err);
2332         error_free(local_err);
2333         ret = fd;
2334         goto out;
2335     }
2336
2337     for (vid = start_nr; found < nr; vid = (vid + 1) % SD_NR_VDIS) {
2338         if (!test_bit(vid, vdi_inuse)) {
2339             break;
2340         }
2341
2342         /* we don't need to read entire object */
2343         ret = read_object(fd, (char *)&inode, vid_to_vdi_oid(vid),
2344                           0, SD_INODE_SIZE - sizeof(inode.data_vdi_id), 0,
2345                           s->cache_flags);
2346
2347         if (ret) {
2348             continue;
2349         }
2350
2351         if (!strcmp(inode.name, s->name) && is_snapshot(&inode)) {
2352             sn_tab[found].date_sec = inode.snap_ctime >> 32;
2353             sn_tab[found].date_nsec = inode.snap_ctime & 0xffffffff;
2354             sn_tab[found].vm_state_size = inode.vm_state_size;
2355             sn_tab[found].vm_clock_nsec = inode.vm_clock_nsec;
2356
2357             snprintf(sn_tab[found].id_str, sizeof(sn_tab[found].id_str),
2358                      "%" PRIu32, inode.snap_id);
2359             pstrcpy(sn_tab[found].name,
2360                     MIN(sizeof(sn_tab[found].name), sizeof(inode.tag)),
2361                     inode.tag);
2362             found++;
2363         }
2364     }
2365
2366     closesocket(fd);
2367 out:
2368     *psn_tab = sn_tab;
2369
2370     g_free(vdi_inuse);
2371
2372     if (ret < 0) {
2373         return ret;
2374     }
2375
2376     return found;
2377 }
2378
2379 static int do_load_save_vmstate(BDRVSheepdogState *s, uint8_t *data,
2380                                 int64_t pos, int size, int load)
2381 {
2382     Error *local_err = NULL;
2383     bool create;
2384     int fd, ret = 0, remaining = size;
2385     unsigned int data_len;
2386     uint64_t vmstate_oid;
2387     uint64_t offset;
2388     uint32_t vdi_index;
2389     uint32_t vdi_id = load ? s->inode.parent_vdi_id : s->inode.vdi_id;
2390
2391     fd = connect_to_sdog(s, &local_err);
2392     if (fd < 0) {
2393         qerror_report_err(local_err);
2394         error_free(local_err);
2395         return fd;
2396     }
2397
2398     while (remaining) {
2399         vdi_index = pos / SD_DATA_OBJ_SIZE;
2400         offset = pos % SD_DATA_OBJ_SIZE;
2401
2402         data_len = MIN(remaining, SD_DATA_OBJ_SIZE - offset);
2403
2404         vmstate_oid = vid_to_vmstate_oid(vdi_id, vdi_index);
2405
2406         create = (offset == 0);
2407         if (load) {
2408             ret = read_object(fd, (char *)data, vmstate_oid,
2409                               s->inode.nr_copies, data_len, offset,
2410                               s->cache_flags);
2411         } else {
2412             ret = write_object(fd, (char *)data, vmstate_oid,
2413                                s->inode.nr_copies, data_len, offset, create,
2414                                s->cache_flags);
2415         }
2416
2417         if (ret < 0) {
2418             error_report("failed to save vmstate %s", strerror(errno));
2419             goto cleanup;
2420         }
2421
2422         pos += data_len;
2423         data += data_len;
2424         remaining -= data_len;
2425     }
2426     ret = size;
2427 cleanup:
2428     closesocket(fd);
2429     return ret;
2430 }
2431
2432 static int sd_save_vmstate(BlockDriverState *bs, QEMUIOVector *qiov,
2433                            int64_t pos)
2434 {
2435     BDRVSheepdogState *s = bs->opaque;
2436     void *buf;
2437     int ret;
2438
2439     buf = qemu_blockalign(bs, qiov->size);
2440     qemu_iovec_to_buf(qiov, 0, buf, qiov->size);
2441     ret = do_load_save_vmstate(s, (uint8_t *) buf, pos, qiov->size, 0);
2442     qemu_vfree(buf);
2443
2444     return ret;
2445 }
2446
2447 static int sd_load_vmstate(BlockDriverState *bs, uint8_t *data,
2448                            int64_t pos, int size)
2449 {
2450     BDRVSheepdogState *s = bs->opaque;
2451
2452     return do_load_save_vmstate(s, data, pos, size, 1);
2453 }
2454
2455
2456 static coroutine_fn int sd_co_discard(BlockDriverState *bs, int64_t sector_num,
2457                                       int nb_sectors)
2458 {
2459     SheepdogAIOCB *acb;
2460     QEMUIOVector dummy;
2461     BDRVSheepdogState *s = bs->opaque;
2462     int ret;
2463
2464     if (!s->discard_supported) {
2465             return 0;
2466     }
2467
2468     acb = sd_aio_setup(bs, &dummy, sector_num, nb_sectors);
2469     acb->aiocb_type = AIOCB_DISCARD_OBJ;
2470     acb->aio_done_func = sd_finish_aiocb;
2471
2472     ret = sd_co_rw_vector(acb);
2473     if (ret <= 0) {
2474         qemu_aio_release(acb);
2475         return ret;
2476     }
2477
2478     qemu_coroutine_yield();
2479
2480     return acb->ret;
2481 }
2482
2483 static coroutine_fn int64_t
2484 sd_co_get_block_status(BlockDriverState *bs, int64_t sector_num, int nb_sectors,
2485                        int *pnum)
2486 {
2487     BDRVSheepdogState *s = bs->opaque;
2488     SheepdogInode *inode = &s->inode;
2489     uint64_t offset = sector_num * BDRV_SECTOR_SIZE;
2490     unsigned long start = offset / SD_DATA_OBJ_SIZE,
2491                   end = DIV_ROUND_UP((sector_num + nb_sectors) *
2492                                      BDRV_SECTOR_SIZE, SD_DATA_OBJ_SIZE);
2493     unsigned long idx;
2494     int64_t ret = BDRV_BLOCK_DATA | BDRV_BLOCK_OFFSET_VALID | offset;
2495
2496     for (idx = start; idx < end; idx++) {
2497         if (inode->data_vdi_id[idx] == 0) {
2498             break;
2499         }
2500     }
2501     if (idx == start) {
2502         /* Get the longest length of unallocated sectors */
2503         ret = 0;
2504         for (idx = start + 1; idx < end; idx++) {
2505             if (inode->data_vdi_id[idx] != 0) {
2506                 break;
2507             }
2508         }
2509     }
2510
2511     *pnum = (idx - start) * SD_DATA_OBJ_SIZE / BDRV_SECTOR_SIZE;
2512     if (*pnum > nb_sectors) {
2513         *pnum = nb_sectors;
2514     }
2515     return ret;
2516 }
2517
2518 static int64_t sd_get_allocated_file_size(BlockDriverState *bs)
2519 {
2520     BDRVSheepdogState *s = bs->opaque;
2521     SheepdogInode *inode = &s->inode;
2522     unsigned long i, last = DIV_ROUND_UP(inode->vdi_size, SD_DATA_OBJ_SIZE);
2523     uint64_t size = 0;
2524
2525     for (i = 0; i < last; i++) {
2526         if (inode->data_vdi_id[i] == 0) {
2527             continue;
2528         }
2529         size += SD_DATA_OBJ_SIZE;
2530     }
2531     return size;
2532 }
2533
2534 static QEMUOptionParameter sd_create_options[] = {
2535     {
2536         .name = BLOCK_OPT_SIZE,
2537         .type = OPT_SIZE,
2538         .help = "Virtual disk size"
2539     },
2540     {
2541         .name = BLOCK_OPT_BACKING_FILE,
2542         .type = OPT_STRING,
2543         .help = "File name of a base image"
2544     },
2545     {
2546         .name = BLOCK_OPT_PREALLOC,
2547         .type = OPT_STRING,
2548         .help = "Preallocation mode (allowed values: off, full)"
2549     },
2550     {
2551         .name = BLOCK_OPT_REDUNDANCY,
2552         .type = OPT_STRING,
2553         .help = "Redundancy of the image"
2554     },
2555     { NULL }
2556 };
2557
2558 static BlockDriver bdrv_sheepdog = {
2559     .format_name    = "sheepdog",
2560     .protocol_name  = "sheepdog",
2561     .instance_size  = sizeof(BDRVSheepdogState),
2562     .bdrv_needs_filename = true,
2563     .bdrv_file_open = sd_open,
2564     .bdrv_close     = sd_close,
2565     .bdrv_create    = sd_create,
2566     .bdrv_has_zero_init = bdrv_has_zero_init_1,
2567     .bdrv_getlength = sd_getlength,
2568     .bdrv_get_allocated_file_size = sd_get_allocated_file_size,
2569     .bdrv_truncate  = sd_truncate,
2570
2571     .bdrv_co_readv  = sd_co_readv,
2572     .bdrv_co_writev = sd_co_writev,
2573     .bdrv_co_flush_to_disk  = sd_co_flush_to_disk,
2574     .bdrv_co_discard = sd_co_discard,
2575     .bdrv_co_get_block_status = sd_co_get_block_status,
2576
2577     .bdrv_snapshot_create   = sd_snapshot_create,
2578     .bdrv_snapshot_goto     = sd_snapshot_goto,
2579     .bdrv_snapshot_delete   = sd_snapshot_delete,
2580     .bdrv_snapshot_list     = sd_snapshot_list,
2581
2582     .bdrv_save_vmstate  = sd_save_vmstate,
2583     .bdrv_load_vmstate  = sd_load_vmstate,
2584
2585     .create_options = sd_create_options,
2586 };
2587
2588 static BlockDriver bdrv_sheepdog_tcp = {
2589     .format_name    = "sheepdog",
2590     .protocol_name  = "sheepdog+tcp",
2591     .instance_size  = sizeof(BDRVSheepdogState),
2592     .bdrv_needs_filename = true,
2593     .bdrv_file_open = sd_open,
2594     .bdrv_close     = sd_close,
2595     .bdrv_create    = sd_create,
2596     .bdrv_has_zero_init = bdrv_has_zero_init_1,
2597     .bdrv_getlength = sd_getlength,
2598     .bdrv_get_allocated_file_size = sd_get_allocated_file_size,
2599     .bdrv_truncate  = sd_truncate,
2600
2601     .bdrv_co_readv  = sd_co_readv,
2602     .bdrv_co_writev = sd_co_writev,
2603     .bdrv_co_flush_to_disk  = sd_co_flush_to_disk,
2604     .bdrv_co_discard = sd_co_discard,
2605     .bdrv_co_get_block_status = sd_co_get_block_status,
2606
2607     .bdrv_snapshot_create   = sd_snapshot_create,
2608     .bdrv_snapshot_goto     = sd_snapshot_goto,
2609     .bdrv_snapshot_delete   = sd_snapshot_delete,
2610     .bdrv_snapshot_list     = sd_snapshot_list,
2611
2612     .bdrv_save_vmstate  = sd_save_vmstate,
2613     .bdrv_load_vmstate  = sd_load_vmstate,
2614
2615     .create_options = sd_create_options,
2616 };
2617
2618 static BlockDriver bdrv_sheepdog_unix = {
2619     .format_name    = "sheepdog",
2620     .protocol_name  = "sheepdog+unix",
2621     .instance_size  = sizeof(BDRVSheepdogState),
2622     .bdrv_needs_filename = true,
2623     .bdrv_file_open = sd_open,
2624     .bdrv_close     = sd_close,
2625     .bdrv_create    = sd_create,
2626     .bdrv_has_zero_init = bdrv_has_zero_init_1,
2627     .bdrv_getlength = sd_getlength,
2628     .bdrv_get_allocated_file_size = sd_get_allocated_file_size,
2629     .bdrv_truncate  = sd_truncate,
2630
2631     .bdrv_co_readv  = sd_co_readv,
2632     .bdrv_co_writev = sd_co_writev,
2633     .bdrv_co_flush_to_disk  = sd_co_flush_to_disk,
2634     .bdrv_co_discard = sd_co_discard,
2635     .bdrv_co_get_block_status = sd_co_get_block_status,
2636
2637     .bdrv_snapshot_create   = sd_snapshot_create,
2638     .bdrv_snapshot_goto     = sd_snapshot_goto,
2639     .bdrv_snapshot_delete   = sd_snapshot_delete,
2640     .bdrv_snapshot_list     = sd_snapshot_list,
2641
2642     .bdrv_save_vmstate  = sd_save_vmstate,
2643     .bdrv_load_vmstate  = sd_load_vmstate,
2644
2645     .create_options = sd_create_options,
2646 };
2647
2648 static void bdrv_sheepdog_init(void)
2649 {
2650     bdrv_register(&bdrv_sheepdog);
2651     bdrv_register(&bdrv_sheepdog_tcp);
2652     bdrv_register(&bdrv_sheepdog_unix);
2653 }
2654 block_init(bdrv_sheepdog_init);
This page took 0.162771 seconds and 4 git commands to generate.