]> Git Repo - qemu.git/blob - block/sheepdog.c
Merge remote-tracking branch 'remotes/kvm/uq/master' into staging
[qemu.git] / block / sheepdog.c
1 /*
2  * Copyright (C) 2009-2010 Nippon Telegraph and Telephone Corporation.
3  *
4  * This program is free software; you can redistribute it and/or
5  * modify it under the terms of the GNU General Public License version
6  * 2 as published by the Free Software Foundation.
7  *
8  * You should have received a copy of the GNU General Public License
9  * along with this program. If not, see <http://www.gnu.org/licenses/>.
10  *
11  * Contributions after 2012-01-13 are licensed under the terms of the
12  * GNU GPL, version 2 or (at your option) any later version.
13  */
14
15 #include "qemu-common.h"
16 #include "qemu/uri.h"
17 #include "qemu/error-report.h"
18 #include "qemu/sockets.h"
19 #include "block/block_int.h"
20 #include "qemu/bitops.h"
21
22 #define SD_PROTO_VER 0x01
23
24 #define SD_DEFAULT_ADDR "localhost"
25 #define SD_DEFAULT_PORT 7000
26
27 #define SD_OP_CREATE_AND_WRITE_OBJ  0x01
28 #define SD_OP_READ_OBJ       0x02
29 #define SD_OP_WRITE_OBJ      0x03
30 /* 0x04 is used internally by Sheepdog */
31 #define SD_OP_DISCARD_OBJ    0x05
32
33 #define SD_OP_NEW_VDI        0x11
34 #define SD_OP_LOCK_VDI       0x12
35 #define SD_OP_RELEASE_VDI    0x13
36 #define SD_OP_GET_VDI_INFO   0x14
37 #define SD_OP_READ_VDIS      0x15
38 #define SD_OP_FLUSH_VDI      0x16
39 #define SD_OP_DEL_VDI        0x17
40
41 #define SD_FLAG_CMD_WRITE    0x01
42 #define SD_FLAG_CMD_COW      0x02
43 #define SD_FLAG_CMD_CACHE    0x04 /* Writeback mode for cache */
44 #define SD_FLAG_CMD_DIRECT   0x08 /* Don't use cache */
45
46 #define SD_RES_SUCCESS       0x00 /* Success */
47 #define SD_RES_UNKNOWN       0x01 /* Unknown error */
48 #define SD_RES_NO_OBJ        0x02 /* No object found */
49 #define SD_RES_EIO           0x03 /* I/O error */
50 #define SD_RES_VDI_EXIST     0x04 /* Vdi exists already */
51 #define SD_RES_INVALID_PARMS 0x05 /* Invalid parameters */
52 #define SD_RES_SYSTEM_ERROR  0x06 /* System error */
53 #define SD_RES_VDI_LOCKED    0x07 /* Vdi is locked */
54 #define SD_RES_NO_VDI        0x08 /* No vdi found */
55 #define SD_RES_NO_BASE_VDI   0x09 /* No base vdi found */
56 #define SD_RES_VDI_READ      0x0A /* Cannot read requested vdi */
57 #define SD_RES_VDI_WRITE     0x0B /* Cannot write requested vdi */
58 #define SD_RES_BASE_VDI_READ 0x0C /* Cannot read base vdi */
59 #define SD_RES_BASE_VDI_WRITE   0x0D /* Cannot write base vdi */
60 #define SD_RES_NO_TAG        0x0E /* Requested tag is not found */
61 #define SD_RES_STARTUP       0x0F /* Sheepdog is on starting up */
62 #define SD_RES_VDI_NOT_LOCKED   0x10 /* Vdi is not locked */
63 #define SD_RES_SHUTDOWN      0x11 /* Sheepdog is shutting down */
64 #define SD_RES_NO_MEM        0x12 /* Cannot allocate memory */
65 #define SD_RES_FULL_VDI      0x13 /* we already have the maximum vdis */
66 #define SD_RES_VER_MISMATCH  0x14 /* Protocol version mismatch */
67 #define SD_RES_NO_SPACE      0x15 /* Server has no room for new objects */
68 #define SD_RES_WAIT_FOR_FORMAT  0x16 /* Waiting for a format operation */
69 #define SD_RES_WAIT_FOR_JOIN    0x17 /* Waiting for other nodes joining */
70 #define SD_RES_JOIN_FAILED   0x18 /* Target node had failed to join sheepdog */
71 #define SD_RES_HALT          0x19 /* Sheepdog is stopped serving IO request */
72 #define SD_RES_READONLY      0x1A /* Object is read-only */
73
74 /*
75  * Object ID rules
76  *
77  *  0 - 19 (20 bits): data object space
78  * 20 - 31 (12 bits): reserved data object space
79  * 32 - 55 (24 bits): vdi object space
80  * 56 - 59 ( 4 bits): reserved vdi object space
81  * 60 - 63 ( 4 bits): object type identifier space
82  */
83
84 #define VDI_SPACE_SHIFT   32
85 #define VDI_BIT (UINT64_C(1) << 63)
86 #define VMSTATE_BIT (UINT64_C(1) << 62)
87 #define MAX_DATA_OBJS (UINT64_C(1) << 20)
88 #define MAX_CHILDREN 1024
89 #define SD_MAX_VDI_LEN 256
90 #define SD_MAX_VDI_TAG_LEN 256
91 #define SD_NR_VDIS   (1U << 24)
92 #define SD_DATA_OBJ_SIZE (UINT64_C(1) << 22)
93 #define SD_MAX_VDI_SIZE (SD_DATA_OBJ_SIZE * MAX_DATA_OBJS)
94 /*
95  * For erasure coding, we use at most SD_EC_MAX_STRIP for data strips and
96  * (SD_EC_MAX_STRIP - 1) for parity strips
97  *
98  * SD_MAX_COPIES is sum of number of data strips and parity strips.
99  */
100 #define SD_EC_MAX_STRIP 16
101 #define SD_MAX_COPIES (SD_EC_MAX_STRIP * 2 - 1)
102
103 #define SD_INODE_SIZE (sizeof(SheepdogInode))
104 #define CURRENT_VDI_ID 0
105
106 typedef struct SheepdogReq {
107     uint8_t proto_ver;
108     uint8_t opcode;
109     uint16_t flags;
110     uint32_t epoch;
111     uint32_t id;
112     uint32_t data_length;
113     uint32_t opcode_specific[8];
114 } SheepdogReq;
115
116 typedef struct SheepdogRsp {
117     uint8_t proto_ver;
118     uint8_t opcode;
119     uint16_t flags;
120     uint32_t epoch;
121     uint32_t id;
122     uint32_t data_length;
123     uint32_t result;
124     uint32_t opcode_specific[7];
125 } SheepdogRsp;
126
127 typedef struct SheepdogObjReq {
128     uint8_t proto_ver;
129     uint8_t opcode;
130     uint16_t flags;
131     uint32_t epoch;
132     uint32_t id;
133     uint32_t data_length;
134     uint64_t oid;
135     uint64_t cow_oid;
136     uint8_t copies;
137     uint8_t copy_policy;
138     uint8_t reserved[6];
139     uint64_t offset;
140 } SheepdogObjReq;
141
142 typedef struct SheepdogObjRsp {
143     uint8_t proto_ver;
144     uint8_t opcode;
145     uint16_t flags;
146     uint32_t epoch;
147     uint32_t id;
148     uint32_t data_length;
149     uint32_t result;
150     uint8_t copies;
151     uint8_t copy_policy;
152     uint8_t reserved[2];
153     uint32_t pad[6];
154 } SheepdogObjRsp;
155
156 typedef struct SheepdogVdiReq {
157     uint8_t proto_ver;
158     uint8_t opcode;
159     uint16_t flags;
160     uint32_t epoch;
161     uint32_t id;
162     uint32_t data_length;
163     uint64_t vdi_size;
164     uint32_t base_vdi_id;
165     uint8_t copies;
166     uint8_t copy_policy;
167     uint8_t reserved[2];
168     uint32_t snapid;
169     uint32_t pad[3];
170 } SheepdogVdiReq;
171
172 typedef struct SheepdogVdiRsp {
173     uint8_t proto_ver;
174     uint8_t opcode;
175     uint16_t flags;
176     uint32_t epoch;
177     uint32_t id;
178     uint32_t data_length;
179     uint32_t result;
180     uint32_t rsvd;
181     uint32_t vdi_id;
182     uint32_t pad[5];
183 } SheepdogVdiRsp;
184
185 typedef struct SheepdogInode {
186     char name[SD_MAX_VDI_LEN];
187     char tag[SD_MAX_VDI_TAG_LEN];
188     uint64_t ctime;
189     uint64_t snap_ctime;
190     uint64_t vm_clock_nsec;
191     uint64_t vdi_size;
192     uint64_t vm_state_size;
193     uint16_t copy_policy;
194     uint8_t nr_copies;
195     uint8_t block_size_shift;
196     uint32_t snap_id;
197     uint32_t vdi_id;
198     uint32_t parent_vdi_id;
199     uint32_t child_vdi_id[MAX_CHILDREN];
200     uint32_t data_vdi_id[MAX_DATA_OBJS];
201 } SheepdogInode;
202
203 /*
204  * 64 bit FNV-1a non-zero initial basis
205  */
206 #define FNV1A_64_INIT ((uint64_t)0xcbf29ce484222325ULL)
207
208 /*
209  * 64 bit Fowler/Noll/Vo FNV-1a hash code
210  */
211 static inline uint64_t fnv_64a_buf(void *buf, size_t len, uint64_t hval)
212 {
213     unsigned char *bp = buf;
214     unsigned char *be = bp + len;
215     while (bp < be) {
216         hval ^= (uint64_t) *bp++;
217         hval += (hval << 1) + (hval << 4) + (hval << 5) +
218             (hval << 7) + (hval << 8) + (hval << 40);
219     }
220     return hval;
221 }
222
223 static inline bool is_data_obj_writable(SheepdogInode *inode, unsigned int idx)
224 {
225     return inode->vdi_id == inode->data_vdi_id[idx];
226 }
227
228 static inline bool is_data_obj(uint64_t oid)
229 {
230     return !(VDI_BIT & oid);
231 }
232
233 static inline uint64_t data_oid_to_idx(uint64_t oid)
234 {
235     return oid & (MAX_DATA_OBJS - 1);
236 }
237
238 static inline uint32_t oid_to_vid(uint64_t oid)
239 {
240     return (oid & ~VDI_BIT) >> VDI_SPACE_SHIFT;
241 }
242
243 static inline uint64_t vid_to_vdi_oid(uint32_t vid)
244 {
245     return VDI_BIT | ((uint64_t)vid << VDI_SPACE_SHIFT);
246 }
247
248 static inline uint64_t vid_to_vmstate_oid(uint32_t vid, uint32_t idx)
249 {
250     return VMSTATE_BIT | ((uint64_t)vid << VDI_SPACE_SHIFT) | idx;
251 }
252
253 static inline uint64_t vid_to_data_oid(uint32_t vid, uint32_t idx)
254 {
255     return ((uint64_t)vid << VDI_SPACE_SHIFT) | idx;
256 }
257
258 static inline bool is_snapshot(struct SheepdogInode *inode)
259 {
260     return !!inode->snap_ctime;
261 }
262
263 #undef DPRINTF
264 #ifdef DEBUG_SDOG
265 #define DPRINTF(fmt, args...)                                       \
266     do {                                                            \
267         fprintf(stdout, "%s %d: " fmt, __func__, __LINE__, ##args); \
268     } while (0)
269 #else
270 #define DPRINTF(fmt, args...)
271 #endif
272
273 typedef struct SheepdogAIOCB SheepdogAIOCB;
274
275 typedef struct AIOReq {
276     SheepdogAIOCB *aiocb;
277     unsigned int iov_offset;
278
279     uint64_t oid;
280     uint64_t base_oid;
281     uint64_t offset;
282     unsigned int data_len;
283     uint8_t flags;
284     uint32_t id;
285
286     QLIST_ENTRY(AIOReq) aio_siblings;
287 } AIOReq;
288
289 enum AIOCBState {
290     AIOCB_WRITE_UDATA,
291     AIOCB_READ_UDATA,
292     AIOCB_FLUSH_CACHE,
293     AIOCB_DISCARD_OBJ,
294 };
295
296 struct SheepdogAIOCB {
297     BlockDriverAIOCB common;
298
299     QEMUIOVector *qiov;
300
301     int64_t sector_num;
302     int nb_sectors;
303
304     int ret;
305     enum AIOCBState aiocb_type;
306
307     Coroutine *coroutine;
308     void (*aio_done_func)(SheepdogAIOCB *);
309
310     bool cancelable;
311     bool *finished;
312     int nr_pending;
313 };
314
315 typedef struct BDRVSheepdogState {
316     BlockDriverState *bs;
317
318     SheepdogInode inode;
319
320     uint32_t min_dirty_data_idx;
321     uint32_t max_dirty_data_idx;
322
323     char name[SD_MAX_VDI_LEN];
324     bool is_snapshot;
325     uint32_t cache_flags;
326     bool discard_supported;
327
328     char *host_spec;
329     bool is_unix;
330     int fd;
331
332     CoMutex lock;
333     Coroutine *co_send;
334     Coroutine *co_recv;
335
336     uint32_t aioreq_seq_num;
337
338     /* Every aio request must be linked to either of these queues. */
339     QLIST_HEAD(inflight_aio_head, AIOReq) inflight_aio_head;
340     QLIST_HEAD(pending_aio_head, AIOReq) pending_aio_head;
341     QLIST_HEAD(failed_aio_head, AIOReq) failed_aio_head;
342 } BDRVSheepdogState;
343
344 static const char * sd_strerror(int err)
345 {
346     int i;
347
348     static const struct {
349         int err;
350         const char *desc;
351     } errors[] = {
352         {SD_RES_SUCCESS, "Success"},
353         {SD_RES_UNKNOWN, "Unknown error"},
354         {SD_RES_NO_OBJ, "No object found"},
355         {SD_RES_EIO, "I/O error"},
356         {SD_RES_VDI_EXIST, "VDI exists already"},
357         {SD_RES_INVALID_PARMS, "Invalid parameters"},
358         {SD_RES_SYSTEM_ERROR, "System error"},
359         {SD_RES_VDI_LOCKED, "VDI is already locked"},
360         {SD_RES_NO_VDI, "No vdi found"},
361         {SD_RES_NO_BASE_VDI, "No base VDI found"},
362         {SD_RES_VDI_READ, "Failed read the requested VDI"},
363         {SD_RES_VDI_WRITE, "Failed to write the requested VDI"},
364         {SD_RES_BASE_VDI_READ, "Failed to read the base VDI"},
365         {SD_RES_BASE_VDI_WRITE, "Failed to write the base VDI"},
366         {SD_RES_NO_TAG, "Failed to find the requested tag"},
367         {SD_RES_STARTUP, "The system is still booting"},
368         {SD_RES_VDI_NOT_LOCKED, "VDI isn't locked"},
369         {SD_RES_SHUTDOWN, "The system is shutting down"},
370         {SD_RES_NO_MEM, "Out of memory on the server"},
371         {SD_RES_FULL_VDI, "We already have the maximum vdis"},
372         {SD_RES_VER_MISMATCH, "Protocol version mismatch"},
373         {SD_RES_NO_SPACE, "Server has no space for new objects"},
374         {SD_RES_WAIT_FOR_FORMAT, "Sheepdog is waiting for a format operation"},
375         {SD_RES_WAIT_FOR_JOIN, "Sheepdog is waiting for other nodes joining"},
376         {SD_RES_JOIN_FAILED, "Target node had failed to join sheepdog"},
377         {SD_RES_HALT, "Sheepdog is stopped serving IO request"},
378         {SD_RES_READONLY, "Object is read-only"},
379     };
380
381     for (i = 0; i < ARRAY_SIZE(errors); ++i) {
382         if (errors[i].err == err) {
383             return errors[i].desc;
384         }
385     }
386
387     return "Invalid error code";
388 }
389
390 /*
391  * Sheepdog I/O handling:
392  *
393  * 1. In sd_co_rw_vector, we send the I/O requests to the server and
394  *    link the requests to the inflight_list in the
395  *    BDRVSheepdogState.  The function exits without waiting for
396  *    receiving the response.
397  *
398  * 2. We receive the response in aio_read_response, the fd handler to
399  *    the sheepdog connection.  If metadata update is needed, we send
400  *    the write request to the vdi object in sd_write_done, the write
401  *    completion function.  We switch back to sd_co_readv/writev after
402  *    all the requests belonging to the AIOCB are finished.
403  */
404
405 static inline AIOReq *alloc_aio_req(BDRVSheepdogState *s, SheepdogAIOCB *acb,
406                                     uint64_t oid, unsigned int data_len,
407                                     uint64_t offset, uint8_t flags,
408                                     uint64_t base_oid, unsigned int iov_offset)
409 {
410     AIOReq *aio_req;
411
412     aio_req = g_malloc(sizeof(*aio_req));
413     aio_req->aiocb = acb;
414     aio_req->iov_offset = iov_offset;
415     aio_req->oid = oid;
416     aio_req->base_oid = base_oid;
417     aio_req->offset = offset;
418     aio_req->data_len = data_len;
419     aio_req->flags = flags;
420     aio_req->id = s->aioreq_seq_num++;
421
422     acb->nr_pending++;
423     return aio_req;
424 }
425
426 static inline void free_aio_req(BDRVSheepdogState *s, AIOReq *aio_req)
427 {
428     SheepdogAIOCB *acb = aio_req->aiocb;
429
430     acb->cancelable = false;
431     QLIST_REMOVE(aio_req, aio_siblings);
432     g_free(aio_req);
433
434     acb->nr_pending--;
435 }
436
437 static void coroutine_fn sd_finish_aiocb(SheepdogAIOCB *acb)
438 {
439     qemu_coroutine_enter(acb->coroutine, NULL);
440     if (acb->finished) {
441         *acb->finished = true;
442     }
443     qemu_aio_release(acb);
444 }
445
446 /*
447  * Check whether the specified acb can be canceled
448  *
449  * We can cancel aio when any request belonging to the acb is:
450  *  - Not processed by the sheepdog server.
451  *  - Not linked to the inflight queue.
452  */
453 static bool sd_acb_cancelable(const SheepdogAIOCB *acb)
454 {
455     BDRVSheepdogState *s = acb->common.bs->opaque;
456     AIOReq *aioreq;
457
458     if (!acb->cancelable) {
459         return false;
460     }
461
462     QLIST_FOREACH(aioreq, &s->inflight_aio_head, aio_siblings) {
463         if (aioreq->aiocb == acb) {
464             return false;
465         }
466     }
467
468     return true;
469 }
470
471 static void sd_aio_cancel(BlockDriverAIOCB *blockacb)
472 {
473     SheepdogAIOCB *acb = (SheepdogAIOCB *)blockacb;
474     BDRVSheepdogState *s = acb->common.bs->opaque;
475     AIOReq *aioreq, *next;
476     bool finished = false;
477
478     acb->finished = &finished;
479     while (!finished) {
480         if (sd_acb_cancelable(acb)) {
481             /* Remove outstanding requests from pending and failed queues.  */
482             QLIST_FOREACH_SAFE(aioreq, &s->pending_aio_head, aio_siblings,
483                                next) {
484                 if (aioreq->aiocb == acb) {
485                     free_aio_req(s, aioreq);
486                 }
487             }
488             QLIST_FOREACH_SAFE(aioreq, &s->failed_aio_head, aio_siblings,
489                                next) {
490                 if (aioreq->aiocb == acb) {
491                     free_aio_req(s, aioreq);
492                 }
493             }
494
495             assert(acb->nr_pending == 0);
496             sd_finish_aiocb(acb);
497             return;
498         }
499         qemu_aio_wait();
500     }
501 }
502
503 static const AIOCBInfo sd_aiocb_info = {
504     .aiocb_size = sizeof(SheepdogAIOCB),
505     .cancel = sd_aio_cancel,
506 };
507
508 static SheepdogAIOCB *sd_aio_setup(BlockDriverState *bs, QEMUIOVector *qiov,
509                                    int64_t sector_num, int nb_sectors)
510 {
511     SheepdogAIOCB *acb;
512
513     acb = qemu_aio_get(&sd_aiocb_info, bs, NULL, NULL);
514
515     acb->qiov = qiov;
516
517     acb->sector_num = sector_num;
518     acb->nb_sectors = nb_sectors;
519
520     acb->aio_done_func = NULL;
521     acb->cancelable = true;
522     acb->finished = NULL;
523     acb->coroutine = qemu_coroutine_self();
524     acb->ret = 0;
525     acb->nr_pending = 0;
526     return acb;
527 }
528
529 static int connect_to_sdog(BDRVSheepdogState *s, Error **errp)
530 {
531     int fd;
532
533     if (s->is_unix) {
534         fd = unix_connect(s->host_spec, errp);
535     } else {
536         fd = inet_connect(s->host_spec, errp);
537
538         if (fd >= 0) {
539             int ret = socket_set_nodelay(fd);
540             if (ret < 0) {
541                 error_report("%s", strerror(errno));
542             }
543         }
544     }
545
546     if (fd >= 0) {
547         qemu_set_nonblock(fd);
548     }
549
550     return fd;
551 }
552
553 static coroutine_fn int send_co_req(int sockfd, SheepdogReq *hdr, void *data,
554                                     unsigned int *wlen)
555 {
556     int ret;
557
558     ret = qemu_co_send(sockfd, hdr, sizeof(*hdr));
559     if (ret != sizeof(*hdr)) {
560         error_report("failed to send a req, %s", strerror(errno));
561         return ret;
562     }
563
564     ret = qemu_co_send(sockfd, data, *wlen);
565     if (ret != *wlen) {
566         error_report("failed to send a req, %s", strerror(errno));
567     }
568
569     return ret;
570 }
571
572 static void restart_co_req(void *opaque)
573 {
574     Coroutine *co = opaque;
575
576     qemu_coroutine_enter(co, NULL);
577 }
578
579 typedef struct SheepdogReqCo {
580     int sockfd;
581     SheepdogReq *hdr;
582     void *data;
583     unsigned int *wlen;
584     unsigned int *rlen;
585     int ret;
586     bool finished;
587 } SheepdogReqCo;
588
589 static coroutine_fn void do_co_req(void *opaque)
590 {
591     int ret;
592     Coroutine *co;
593     SheepdogReqCo *srco = opaque;
594     int sockfd = srco->sockfd;
595     SheepdogReq *hdr = srco->hdr;
596     void *data = srco->data;
597     unsigned int *wlen = srco->wlen;
598     unsigned int *rlen = srco->rlen;
599
600     co = qemu_coroutine_self();
601     qemu_aio_set_fd_handler(sockfd, NULL, restart_co_req, co);
602
603     ret = send_co_req(sockfd, hdr, data, wlen);
604     if (ret < 0) {
605         goto out;
606     }
607
608     qemu_aio_set_fd_handler(sockfd, restart_co_req, NULL, co);
609
610     ret = qemu_co_recv(sockfd, hdr, sizeof(*hdr));
611     if (ret != sizeof(*hdr)) {
612         error_report("failed to get a rsp, %s", strerror(errno));
613         ret = -errno;
614         goto out;
615     }
616
617     if (*rlen > hdr->data_length) {
618         *rlen = hdr->data_length;
619     }
620
621     if (*rlen) {
622         ret = qemu_co_recv(sockfd, data, *rlen);
623         if (ret != *rlen) {
624             error_report("failed to get the data, %s", strerror(errno));
625             ret = -errno;
626             goto out;
627         }
628     }
629     ret = 0;
630 out:
631     /* there is at most one request for this sockfd, so it is safe to
632      * set each handler to NULL. */
633     qemu_aio_set_fd_handler(sockfd, NULL, NULL, NULL);
634
635     srco->ret = ret;
636     srco->finished = true;
637 }
638
639 static int do_req(int sockfd, SheepdogReq *hdr, void *data,
640                   unsigned int *wlen, unsigned int *rlen)
641 {
642     Coroutine *co;
643     SheepdogReqCo srco = {
644         .sockfd = sockfd,
645         .hdr = hdr,
646         .data = data,
647         .wlen = wlen,
648         .rlen = rlen,
649         .ret = 0,
650         .finished = false,
651     };
652
653     if (qemu_in_coroutine()) {
654         do_co_req(&srco);
655     } else {
656         co = qemu_coroutine_create(do_co_req);
657         qemu_coroutine_enter(co, &srco);
658         while (!srco.finished) {
659             qemu_aio_wait();
660         }
661     }
662
663     return srco.ret;
664 }
665
666 static void coroutine_fn add_aio_request(BDRVSheepdogState *s, AIOReq *aio_req,
667                            struct iovec *iov, int niov, bool create,
668                            enum AIOCBState aiocb_type);
669 static void coroutine_fn resend_aioreq(BDRVSheepdogState *s, AIOReq *aio_req);
670 static int reload_inode(BDRVSheepdogState *s, uint32_t snapid, const char *tag);
671 static int get_sheep_fd(BDRVSheepdogState *s, Error **errp);
672 static void co_write_request(void *opaque);
673
674 static AIOReq *find_pending_req(BDRVSheepdogState *s, uint64_t oid)
675 {
676     AIOReq *aio_req;
677
678     QLIST_FOREACH(aio_req, &s->pending_aio_head, aio_siblings) {
679         if (aio_req->oid == oid) {
680             return aio_req;
681         }
682     }
683
684     return NULL;
685 }
686
687 /*
688  * This function searchs pending requests to the object `oid', and
689  * sends them.
690  */
691 static void coroutine_fn send_pending_req(BDRVSheepdogState *s, uint64_t oid)
692 {
693     AIOReq *aio_req;
694     SheepdogAIOCB *acb;
695
696     while ((aio_req = find_pending_req(s, oid)) != NULL) {
697         acb = aio_req->aiocb;
698         /* move aio_req from pending list to inflight one */
699         QLIST_REMOVE(aio_req, aio_siblings);
700         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
701         add_aio_request(s, aio_req, acb->qiov->iov, acb->qiov->niov, false,
702                         acb->aiocb_type);
703     }
704 }
705
706 static coroutine_fn void reconnect_to_sdog(void *opaque)
707 {
708     Error *local_err = NULL;
709     BDRVSheepdogState *s = opaque;
710     AIOReq *aio_req, *next;
711
712     qemu_aio_set_fd_handler(s->fd, NULL, NULL, NULL);
713     close(s->fd);
714     s->fd = -1;
715
716     /* Wait for outstanding write requests to be completed. */
717     while (s->co_send != NULL) {
718         co_write_request(opaque);
719     }
720
721     /* Try to reconnect the sheepdog server every one second. */
722     while (s->fd < 0) {
723         s->fd = get_sheep_fd(s, &local_err);
724         if (s->fd < 0) {
725             DPRINTF("Wait for connection to be established\n");
726             error_report("%s", error_get_pretty(local_err));
727             error_free(local_err);
728             co_aio_sleep_ns(bdrv_get_aio_context(s->bs), QEMU_CLOCK_REALTIME,
729                             1000000000ULL);
730         }
731     };
732
733     /*
734      * Now we have to resend all the request in the inflight queue.  However,
735      * resend_aioreq() can yield and newly created requests can be added to the
736      * inflight queue before the coroutine is resumed.  To avoid mixing them, we
737      * have to move all the inflight requests to the failed queue before
738      * resend_aioreq() is called.
739      */
740     QLIST_FOREACH_SAFE(aio_req, &s->inflight_aio_head, aio_siblings, next) {
741         QLIST_REMOVE(aio_req, aio_siblings);
742         QLIST_INSERT_HEAD(&s->failed_aio_head, aio_req, aio_siblings);
743     }
744
745     /* Resend all the failed aio requests. */
746     while (!QLIST_EMPTY(&s->failed_aio_head)) {
747         aio_req = QLIST_FIRST(&s->failed_aio_head);
748         QLIST_REMOVE(aio_req, aio_siblings);
749         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
750         resend_aioreq(s, aio_req);
751     }
752 }
753
754 /*
755  * Receive responses of the I/O requests.
756  *
757  * This function is registered as a fd handler, and called from the
758  * main loop when s->fd is ready for reading responses.
759  */
760 static void coroutine_fn aio_read_response(void *opaque)
761 {
762     SheepdogObjRsp rsp;
763     BDRVSheepdogState *s = opaque;
764     int fd = s->fd;
765     int ret;
766     AIOReq *aio_req = NULL;
767     SheepdogAIOCB *acb;
768     uint64_t idx;
769
770     /* read a header */
771     ret = qemu_co_recv(fd, &rsp, sizeof(rsp));
772     if (ret != sizeof(rsp)) {
773         error_report("failed to get the header, %s", strerror(errno));
774         goto err;
775     }
776
777     /* find the right aio_req from the inflight aio list */
778     QLIST_FOREACH(aio_req, &s->inflight_aio_head, aio_siblings) {
779         if (aio_req->id == rsp.id) {
780             break;
781         }
782     }
783     if (!aio_req) {
784         error_report("cannot find aio_req %x", rsp.id);
785         goto err;
786     }
787
788     acb = aio_req->aiocb;
789
790     switch (acb->aiocb_type) {
791     case AIOCB_WRITE_UDATA:
792         /* this coroutine context is no longer suitable for co_recv
793          * because we may send data to update vdi objects */
794         s->co_recv = NULL;
795         if (!is_data_obj(aio_req->oid)) {
796             break;
797         }
798         idx = data_oid_to_idx(aio_req->oid);
799
800         if (s->inode.data_vdi_id[idx] != s->inode.vdi_id) {
801             /*
802              * If the object is newly created one, we need to update
803              * the vdi object (metadata object).  min_dirty_data_idx
804              * and max_dirty_data_idx are changed to include updated
805              * index between them.
806              */
807             if (rsp.result == SD_RES_SUCCESS) {
808                 s->inode.data_vdi_id[idx] = s->inode.vdi_id;
809                 s->max_dirty_data_idx = MAX(idx, s->max_dirty_data_idx);
810                 s->min_dirty_data_idx = MIN(idx, s->min_dirty_data_idx);
811             }
812             /*
813              * Some requests may be blocked because simultaneous
814              * create requests are not allowed, so we search the
815              * pending requests here.
816              */
817             send_pending_req(s, aio_req->oid);
818         }
819         break;
820     case AIOCB_READ_UDATA:
821         ret = qemu_co_recvv(fd, acb->qiov->iov, acb->qiov->niov,
822                             aio_req->iov_offset, rsp.data_length);
823         if (ret != rsp.data_length) {
824             error_report("failed to get the data, %s", strerror(errno));
825             goto err;
826         }
827         break;
828     case AIOCB_FLUSH_CACHE:
829         if (rsp.result == SD_RES_INVALID_PARMS) {
830             DPRINTF("disable cache since the server doesn't support it\n");
831             s->cache_flags = SD_FLAG_CMD_DIRECT;
832             rsp.result = SD_RES_SUCCESS;
833         }
834         break;
835     case AIOCB_DISCARD_OBJ:
836         switch (rsp.result) {
837         case SD_RES_INVALID_PARMS:
838             error_report("sheep(%s) doesn't support discard command",
839                          s->host_spec);
840             rsp.result = SD_RES_SUCCESS;
841             s->discard_supported = false;
842             break;
843         case SD_RES_SUCCESS:
844             idx = data_oid_to_idx(aio_req->oid);
845             s->inode.data_vdi_id[idx] = 0;
846             break;
847         default:
848             break;
849         }
850     }
851
852     switch (rsp.result) {
853     case SD_RES_SUCCESS:
854         break;
855     case SD_RES_READONLY:
856         if (s->inode.vdi_id == oid_to_vid(aio_req->oid)) {
857             ret = reload_inode(s, 0, "");
858             if (ret < 0) {
859                 goto err;
860             }
861         }
862         if (is_data_obj(aio_req->oid)) {
863             aio_req->oid = vid_to_data_oid(s->inode.vdi_id,
864                                            data_oid_to_idx(aio_req->oid));
865         } else {
866             aio_req->oid = vid_to_vdi_oid(s->inode.vdi_id);
867         }
868         resend_aioreq(s, aio_req);
869         goto out;
870     default:
871         acb->ret = -EIO;
872         error_report("%s", sd_strerror(rsp.result));
873         break;
874     }
875
876     free_aio_req(s, aio_req);
877     if (!acb->nr_pending) {
878         /*
879          * We've finished all requests which belong to the AIOCB, so
880          * we can switch back to sd_co_readv/writev now.
881          */
882         acb->aio_done_func(acb);
883     }
884 out:
885     s->co_recv = NULL;
886     return;
887 err:
888     s->co_recv = NULL;
889     reconnect_to_sdog(opaque);
890 }
891
892 static void co_read_response(void *opaque)
893 {
894     BDRVSheepdogState *s = opaque;
895
896     if (!s->co_recv) {
897         s->co_recv = qemu_coroutine_create(aio_read_response);
898     }
899
900     qemu_coroutine_enter(s->co_recv, opaque);
901 }
902
903 static void co_write_request(void *opaque)
904 {
905     BDRVSheepdogState *s = opaque;
906
907     qemu_coroutine_enter(s->co_send, NULL);
908 }
909
910 /*
911  * Return a socket descriptor to read/write objects.
912  *
913  * We cannot use this descriptor for other operations because
914  * the block driver may be on waiting response from the server.
915  */
916 static int get_sheep_fd(BDRVSheepdogState *s, Error **errp)
917 {
918     int fd;
919
920     fd = connect_to_sdog(s, errp);
921     if (fd < 0) {
922         return fd;
923     }
924
925     qemu_aio_set_fd_handler(fd, co_read_response, NULL, s);
926     return fd;
927 }
928
929 static int sd_parse_uri(BDRVSheepdogState *s, const char *filename,
930                         char *vdi, uint32_t *snapid, char *tag)
931 {
932     URI *uri;
933     QueryParams *qp = NULL;
934     int ret = 0;
935
936     uri = uri_parse(filename);
937     if (!uri) {
938         return -EINVAL;
939     }
940
941     /* transport */
942     if (!strcmp(uri->scheme, "sheepdog")) {
943         s->is_unix = false;
944     } else if (!strcmp(uri->scheme, "sheepdog+tcp")) {
945         s->is_unix = false;
946     } else if (!strcmp(uri->scheme, "sheepdog+unix")) {
947         s->is_unix = true;
948     } else {
949         ret = -EINVAL;
950         goto out;
951     }
952
953     if (uri->path == NULL || !strcmp(uri->path, "/")) {
954         ret = -EINVAL;
955         goto out;
956     }
957     pstrcpy(vdi, SD_MAX_VDI_LEN, uri->path + 1);
958
959     qp = query_params_parse(uri->query);
960     if (qp->n > 1 || (s->is_unix && !qp->n) || (!s->is_unix && qp->n)) {
961         ret = -EINVAL;
962         goto out;
963     }
964
965     if (s->is_unix) {
966         /* sheepdog+unix:///vdiname?socket=path */
967         if (uri->server || uri->port || strcmp(qp->p[0].name, "socket")) {
968             ret = -EINVAL;
969             goto out;
970         }
971         s->host_spec = g_strdup(qp->p[0].value);
972     } else {
973         /* sheepdog[+tcp]://[host:port]/vdiname */
974         s->host_spec = g_strdup_printf("%s:%d", uri->server ?: SD_DEFAULT_ADDR,
975                                        uri->port ?: SD_DEFAULT_PORT);
976     }
977
978     /* snapshot tag */
979     if (uri->fragment) {
980         *snapid = strtoul(uri->fragment, NULL, 10);
981         if (*snapid == 0) {
982             pstrcpy(tag, SD_MAX_VDI_TAG_LEN, uri->fragment);
983         }
984     } else {
985         *snapid = CURRENT_VDI_ID; /* search current vdi */
986     }
987
988 out:
989     if (qp) {
990         query_params_free(qp);
991     }
992     uri_free(uri);
993     return ret;
994 }
995
996 /*
997  * Parse a filename (old syntax)
998  *
999  * filename must be one of the following formats:
1000  *   1. [vdiname]
1001  *   2. [vdiname]:[snapid]
1002  *   3. [vdiname]:[tag]
1003  *   4. [hostname]:[port]:[vdiname]
1004  *   5. [hostname]:[port]:[vdiname]:[snapid]
1005  *   6. [hostname]:[port]:[vdiname]:[tag]
1006  *
1007  * You can boot from the snapshot images by specifying `snapid` or
1008  * `tag'.
1009  *
1010  * You can run VMs outside the Sheepdog cluster by specifying
1011  * `hostname' and `port' (experimental).
1012  */
1013 static int parse_vdiname(BDRVSheepdogState *s, const char *filename,
1014                          char *vdi, uint32_t *snapid, char *tag)
1015 {
1016     char *p, *q, *uri;
1017     const char *host_spec, *vdi_spec;
1018     int nr_sep, ret;
1019
1020     strstart(filename, "sheepdog:", (const char **)&filename);
1021     p = q = g_strdup(filename);
1022
1023     /* count the number of separators */
1024     nr_sep = 0;
1025     while (*p) {
1026         if (*p == ':') {
1027             nr_sep++;
1028         }
1029         p++;
1030     }
1031     p = q;
1032
1033     /* use the first two tokens as host_spec. */
1034     if (nr_sep >= 2) {
1035         host_spec = p;
1036         p = strchr(p, ':');
1037         p++;
1038         p = strchr(p, ':');
1039         *p++ = '\0';
1040     } else {
1041         host_spec = "";
1042     }
1043
1044     vdi_spec = p;
1045
1046     p = strchr(vdi_spec, ':');
1047     if (p) {
1048         *p++ = '#';
1049     }
1050
1051     uri = g_strdup_printf("sheepdog://%s/%s", host_spec, vdi_spec);
1052
1053     ret = sd_parse_uri(s, uri, vdi, snapid, tag);
1054
1055     g_free(q);
1056     g_free(uri);
1057
1058     return ret;
1059 }
1060
1061 static int find_vdi_name(BDRVSheepdogState *s, const char *filename,
1062                          uint32_t snapid, const char *tag, uint32_t *vid,
1063                          bool lock, Error **errp)
1064 {
1065     int ret, fd;
1066     SheepdogVdiReq hdr;
1067     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1068     unsigned int wlen, rlen = 0;
1069     char buf[SD_MAX_VDI_LEN + SD_MAX_VDI_TAG_LEN];
1070
1071     fd = connect_to_sdog(s, errp);
1072     if (fd < 0) {
1073         return fd;
1074     }
1075
1076     /* This pair of strncpy calls ensures that the buffer is zero-filled,
1077      * which is desirable since we'll soon be sending those bytes, and
1078      * don't want the send_req to read uninitialized data.
1079      */
1080     strncpy(buf, filename, SD_MAX_VDI_LEN);
1081     strncpy(buf + SD_MAX_VDI_LEN, tag, SD_MAX_VDI_TAG_LEN);
1082
1083     memset(&hdr, 0, sizeof(hdr));
1084     if (lock) {
1085         hdr.opcode = SD_OP_LOCK_VDI;
1086     } else {
1087         hdr.opcode = SD_OP_GET_VDI_INFO;
1088     }
1089     wlen = SD_MAX_VDI_LEN + SD_MAX_VDI_TAG_LEN;
1090     hdr.proto_ver = SD_PROTO_VER;
1091     hdr.data_length = wlen;
1092     hdr.snapid = snapid;
1093     hdr.flags = SD_FLAG_CMD_WRITE;
1094
1095     ret = do_req(fd, (SheepdogReq *)&hdr, buf, &wlen, &rlen);
1096     if (ret) {
1097         error_setg_errno(errp, -ret, "cannot get vdi info");
1098         goto out;
1099     }
1100
1101     if (rsp->result != SD_RES_SUCCESS) {
1102         error_setg(errp, "cannot get vdi info, %s, %s %" PRIu32 " %s",
1103                    sd_strerror(rsp->result), filename, snapid, tag);
1104         if (rsp->result == SD_RES_NO_VDI) {
1105             ret = -ENOENT;
1106         } else {
1107             ret = -EIO;
1108         }
1109         goto out;
1110     }
1111     *vid = rsp->vdi_id;
1112
1113     ret = 0;
1114 out:
1115     closesocket(fd);
1116     return ret;
1117 }
1118
1119 static void coroutine_fn add_aio_request(BDRVSheepdogState *s, AIOReq *aio_req,
1120                            struct iovec *iov, int niov, bool create,
1121                            enum AIOCBState aiocb_type)
1122 {
1123     int nr_copies = s->inode.nr_copies;
1124     SheepdogObjReq hdr;
1125     unsigned int wlen = 0;
1126     int ret;
1127     uint64_t oid = aio_req->oid;
1128     unsigned int datalen = aio_req->data_len;
1129     uint64_t offset = aio_req->offset;
1130     uint8_t flags = aio_req->flags;
1131     uint64_t old_oid = aio_req->base_oid;
1132
1133     if (!nr_copies) {
1134         error_report("bug");
1135     }
1136
1137     memset(&hdr, 0, sizeof(hdr));
1138
1139     switch (aiocb_type) {
1140     case AIOCB_FLUSH_CACHE:
1141         hdr.opcode = SD_OP_FLUSH_VDI;
1142         break;
1143     case AIOCB_READ_UDATA:
1144         hdr.opcode = SD_OP_READ_OBJ;
1145         hdr.flags = flags;
1146         break;
1147     case AIOCB_WRITE_UDATA:
1148         if (create) {
1149             hdr.opcode = SD_OP_CREATE_AND_WRITE_OBJ;
1150         } else {
1151             hdr.opcode = SD_OP_WRITE_OBJ;
1152         }
1153         wlen = datalen;
1154         hdr.flags = SD_FLAG_CMD_WRITE | flags;
1155         break;
1156     case AIOCB_DISCARD_OBJ:
1157         hdr.opcode = SD_OP_DISCARD_OBJ;
1158         break;
1159     }
1160
1161     if (s->cache_flags) {
1162         hdr.flags |= s->cache_flags;
1163     }
1164
1165     hdr.oid = oid;
1166     hdr.cow_oid = old_oid;
1167     hdr.copies = s->inode.nr_copies;
1168
1169     hdr.data_length = datalen;
1170     hdr.offset = offset;
1171
1172     hdr.id = aio_req->id;
1173
1174     qemu_co_mutex_lock(&s->lock);
1175     s->co_send = qemu_coroutine_self();
1176     qemu_aio_set_fd_handler(s->fd, co_read_response, co_write_request, s);
1177     socket_set_cork(s->fd, 1);
1178
1179     /* send a header */
1180     ret = qemu_co_send(s->fd, &hdr, sizeof(hdr));
1181     if (ret != sizeof(hdr)) {
1182         error_report("failed to send a req, %s", strerror(errno));
1183         goto out;
1184     }
1185
1186     if (wlen) {
1187         ret = qemu_co_sendv(s->fd, iov, niov, aio_req->iov_offset, wlen);
1188         if (ret != wlen) {
1189             error_report("failed to send a data, %s", strerror(errno));
1190         }
1191     }
1192 out:
1193     socket_set_cork(s->fd, 0);
1194     qemu_aio_set_fd_handler(s->fd, co_read_response, NULL, s);
1195     s->co_send = NULL;
1196     qemu_co_mutex_unlock(&s->lock);
1197 }
1198
1199 static int read_write_object(int fd, char *buf, uint64_t oid, uint8_t copies,
1200                              unsigned int datalen, uint64_t offset,
1201                              bool write, bool create, uint32_t cache_flags)
1202 {
1203     SheepdogObjReq hdr;
1204     SheepdogObjRsp *rsp = (SheepdogObjRsp *)&hdr;
1205     unsigned int wlen, rlen;
1206     int ret;
1207
1208     memset(&hdr, 0, sizeof(hdr));
1209
1210     if (write) {
1211         wlen = datalen;
1212         rlen = 0;
1213         hdr.flags = SD_FLAG_CMD_WRITE;
1214         if (create) {
1215             hdr.opcode = SD_OP_CREATE_AND_WRITE_OBJ;
1216         } else {
1217             hdr.opcode = SD_OP_WRITE_OBJ;
1218         }
1219     } else {
1220         wlen = 0;
1221         rlen = datalen;
1222         hdr.opcode = SD_OP_READ_OBJ;
1223     }
1224
1225     hdr.flags |= cache_flags;
1226
1227     hdr.oid = oid;
1228     hdr.data_length = datalen;
1229     hdr.offset = offset;
1230     hdr.copies = copies;
1231
1232     ret = do_req(fd, (SheepdogReq *)&hdr, buf, &wlen, &rlen);
1233     if (ret) {
1234         error_report("failed to send a request to the sheep");
1235         return ret;
1236     }
1237
1238     switch (rsp->result) {
1239     case SD_RES_SUCCESS:
1240         return 0;
1241     default:
1242         error_report("%s", sd_strerror(rsp->result));
1243         return -EIO;
1244     }
1245 }
1246
1247 static int read_object(int fd, char *buf, uint64_t oid, uint8_t copies,
1248                        unsigned int datalen, uint64_t offset,
1249                        uint32_t cache_flags)
1250 {
1251     return read_write_object(fd, buf, oid, copies, datalen, offset, false,
1252                              false, cache_flags);
1253 }
1254
1255 static int write_object(int fd, char *buf, uint64_t oid, uint8_t copies,
1256                         unsigned int datalen, uint64_t offset, bool create,
1257                         uint32_t cache_flags)
1258 {
1259     return read_write_object(fd, buf, oid, copies, datalen, offset, true,
1260                              create, cache_flags);
1261 }
1262
1263 /* update inode with the latest state */
1264 static int reload_inode(BDRVSheepdogState *s, uint32_t snapid, const char *tag)
1265 {
1266     Error *local_err = NULL;
1267     SheepdogInode *inode;
1268     int ret = 0, fd;
1269     uint32_t vid = 0;
1270
1271     fd = connect_to_sdog(s, &local_err);
1272     if (fd < 0) {
1273         error_report("%s", error_get_pretty(local_err));;
1274         error_free(local_err);
1275         return -EIO;
1276     }
1277
1278     inode = g_malloc(sizeof(s->inode));
1279
1280     ret = find_vdi_name(s, s->name, snapid, tag, &vid, false, &local_err);
1281     if (ret) {
1282         error_report("%s", error_get_pretty(local_err));;
1283         error_free(local_err);
1284         goto out;
1285     }
1286
1287     ret = read_object(fd, (char *)inode, vid_to_vdi_oid(vid),
1288                       s->inode.nr_copies, sizeof(*inode), 0, s->cache_flags);
1289     if (ret < 0) {
1290         goto out;
1291     }
1292
1293     if (inode->vdi_id != s->inode.vdi_id) {
1294         memcpy(&s->inode, inode, sizeof(s->inode));
1295     }
1296
1297 out:
1298     g_free(inode);
1299     closesocket(fd);
1300
1301     return ret;
1302 }
1303
1304 /* Return true if the specified request is linked to the pending list. */
1305 static bool check_simultaneous_create(BDRVSheepdogState *s, AIOReq *aio_req)
1306 {
1307     AIOReq *areq;
1308     QLIST_FOREACH(areq, &s->inflight_aio_head, aio_siblings) {
1309         if (areq != aio_req && areq->oid == aio_req->oid) {
1310             /*
1311              * Sheepdog cannot handle simultaneous create requests to the same
1312              * object, so we cannot send the request until the previous request
1313              * finishes.
1314              */
1315             DPRINTF("simultaneous create to %" PRIx64 "\n", aio_req->oid);
1316             aio_req->flags = 0;
1317             aio_req->base_oid = 0;
1318             QLIST_REMOVE(aio_req, aio_siblings);
1319             QLIST_INSERT_HEAD(&s->pending_aio_head, aio_req, aio_siblings);
1320             return true;
1321         }
1322     }
1323
1324     return false;
1325 }
1326
1327 static void coroutine_fn resend_aioreq(BDRVSheepdogState *s, AIOReq *aio_req)
1328 {
1329     SheepdogAIOCB *acb = aio_req->aiocb;
1330     bool create = false;
1331
1332     /* check whether this request becomes a CoW one */
1333     if (acb->aiocb_type == AIOCB_WRITE_UDATA && is_data_obj(aio_req->oid)) {
1334         int idx = data_oid_to_idx(aio_req->oid);
1335
1336         if (is_data_obj_writable(&s->inode, idx)) {
1337             goto out;
1338         }
1339
1340         if (check_simultaneous_create(s, aio_req)) {
1341             return;
1342         }
1343
1344         if (s->inode.data_vdi_id[idx]) {
1345             aio_req->base_oid = vid_to_data_oid(s->inode.data_vdi_id[idx], idx);
1346             aio_req->flags |= SD_FLAG_CMD_COW;
1347         }
1348         create = true;
1349     }
1350 out:
1351     if (is_data_obj(aio_req->oid)) {
1352         add_aio_request(s, aio_req, acb->qiov->iov, acb->qiov->niov, create,
1353                         acb->aiocb_type);
1354     } else {
1355         struct iovec iov;
1356         iov.iov_base = &s->inode;
1357         iov.iov_len = sizeof(s->inode);
1358         add_aio_request(s, aio_req, &iov, 1, false, AIOCB_WRITE_UDATA);
1359     }
1360 }
1361
1362 /* TODO Convert to fine grained options */
1363 static QemuOptsList runtime_opts = {
1364     .name = "sheepdog",
1365     .head = QTAILQ_HEAD_INITIALIZER(runtime_opts.head),
1366     .desc = {
1367         {
1368             .name = "filename",
1369             .type = QEMU_OPT_STRING,
1370             .help = "URL to the sheepdog image",
1371         },
1372         { /* end of list */ }
1373     },
1374 };
1375
1376 static int sd_open(BlockDriverState *bs, QDict *options, int flags,
1377                    Error **errp)
1378 {
1379     int ret, fd;
1380     uint32_t vid = 0;
1381     BDRVSheepdogState *s = bs->opaque;
1382     char vdi[SD_MAX_VDI_LEN], tag[SD_MAX_VDI_TAG_LEN];
1383     uint32_t snapid;
1384     char *buf = NULL;
1385     QemuOpts *opts;
1386     Error *local_err = NULL;
1387     const char *filename;
1388
1389     s->bs = bs;
1390
1391     opts = qemu_opts_create(&runtime_opts, NULL, 0, &error_abort);
1392     qemu_opts_absorb_qdict(opts, options, &local_err);
1393     if (local_err) {
1394         error_propagate(errp, local_err);
1395         ret = -EINVAL;
1396         goto out;
1397     }
1398
1399     filename = qemu_opt_get(opts, "filename");
1400
1401     QLIST_INIT(&s->inflight_aio_head);
1402     QLIST_INIT(&s->pending_aio_head);
1403     QLIST_INIT(&s->failed_aio_head);
1404     s->fd = -1;
1405
1406     memset(vdi, 0, sizeof(vdi));
1407     memset(tag, 0, sizeof(tag));
1408
1409     if (strstr(filename, "://")) {
1410         ret = sd_parse_uri(s, filename, vdi, &snapid, tag);
1411     } else {
1412         ret = parse_vdiname(s, filename, vdi, &snapid, tag);
1413     }
1414     if (ret < 0) {
1415         error_setg(errp, "Can't parse filename");
1416         goto out;
1417     }
1418     s->fd = get_sheep_fd(s, errp);
1419     if (s->fd < 0) {
1420         ret = s->fd;
1421         goto out;
1422     }
1423
1424     ret = find_vdi_name(s, vdi, snapid, tag, &vid, true, errp);
1425     if (ret) {
1426         goto out;
1427     }
1428
1429     /*
1430      * QEMU block layer emulates writethrough cache as 'writeback + flush', so
1431      * we always set SD_FLAG_CMD_CACHE (writeback cache) as default.
1432      */
1433     s->cache_flags = SD_FLAG_CMD_CACHE;
1434     if (flags & BDRV_O_NOCACHE) {
1435         s->cache_flags = SD_FLAG_CMD_DIRECT;
1436     }
1437     s->discard_supported = true;
1438
1439     if (snapid || tag[0] != '\0') {
1440         DPRINTF("%" PRIx32 " snapshot inode was open.\n", vid);
1441         s->is_snapshot = true;
1442     }
1443
1444     fd = connect_to_sdog(s, errp);
1445     if (fd < 0) {
1446         ret = fd;
1447         goto out;
1448     }
1449
1450     buf = g_malloc(SD_INODE_SIZE);
1451     ret = read_object(fd, buf, vid_to_vdi_oid(vid), 0, SD_INODE_SIZE, 0,
1452                       s->cache_flags);
1453
1454     closesocket(fd);
1455
1456     if (ret) {
1457         error_setg(errp, "Can't read snapshot inode");
1458         goto out;
1459     }
1460
1461     memcpy(&s->inode, buf, sizeof(s->inode));
1462     s->min_dirty_data_idx = UINT32_MAX;
1463     s->max_dirty_data_idx = 0;
1464
1465     bs->total_sectors = s->inode.vdi_size / BDRV_SECTOR_SIZE;
1466     pstrcpy(s->name, sizeof(s->name), vdi);
1467     qemu_co_mutex_init(&s->lock);
1468     qemu_opts_del(opts);
1469     g_free(buf);
1470     return 0;
1471 out:
1472     qemu_aio_set_fd_handler(s->fd, NULL, NULL, NULL);
1473     if (s->fd >= 0) {
1474         closesocket(s->fd);
1475     }
1476     qemu_opts_del(opts);
1477     g_free(buf);
1478     return ret;
1479 }
1480
1481 static int do_sd_create(BDRVSheepdogState *s, uint32_t *vdi_id, int snapshot,
1482                         Error **errp)
1483 {
1484     SheepdogVdiReq hdr;
1485     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1486     int fd, ret;
1487     unsigned int wlen, rlen = 0;
1488     char buf[SD_MAX_VDI_LEN];
1489
1490     fd = connect_to_sdog(s, errp);
1491     if (fd < 0) {
1492         return fd;
1493     }
1494
1495     /* FIXME: would it be better to fail (e.g., return -EIO) when filename
1496      * does not fit in buf?  For now, just truncate and avoid buffer overrun.
1497      */
1498     memset(buf, 0, sizeof(buf));
1499     pstrcpy(buf, sizeof(buf), s->name);
1500
1501     memset(&hdr, 0, sizeof(hdr));
1502     hdr.opcode = SD_OP_NEW_VDI;
1503     hdr.base_vdi_id = s->inode.vdi_id;
1504
1505     wlen = SD_MAX_VDI_LEN;
1506
1507     hdr.flags = SD_FLAG_CMD_WRITE;
1508     hdr.snapid = snapshot;
1509
1510     hdr.data_length = wlen;
1511     hdr.vdi_size = s->inode.vdi_size;
1512     hdr.copy_policy = s->inode.copy_policy;
1513     hdr.copies = s->inode.nr_copies;
1514
1515     ret = do_req(fd, (SheepdogReq *)&hdr, buf, &wlen, &rlen);
1516
1517     closesocket(fd);
1518
1519     if (ret) {
1520         error_setg_errno(errp, -ret, "create failed");
1521         return ret;
1522     }
1523
1524     if (rsp->result != SD_RES_SUCCESS) {
1525         error_setg(errp, "%s, %s", sd_strerror(rsp->result), s->inode.name);
1526         return -EIO;
1527     }
1528
1529     if (vdi_id) {
1530         *vdi_id = rsp->vdi_id;
1531     }
1532
1533     return 0;
1534 }
1535
1536 static int sd_prealloc(const char *filename, Error **errp)
1537 {
1538     BlockDriverState *bs = NULL;
1539     uint32_t idx, max_idx;
1540     int64_t vdi_size;
1541     void *buf = g_malloc0(SD_DATA_OBJ_SIZE);
1542     int ret;
1543
1544     ret = bdrv_open(&bs, filename, NULL, NULL, BDRV_O_RDWR | BDRV_O_PROTOCOL,
1545                     NULL, errp);
1546     if (ret < 0) {
1547         goto out_with_err_set;
1548     }
1549
1550     vdi_size = bdrv_getlength(bs);
1551     if (vdi_size < 0) {
1552         ret = vdi_size;
1553         goto out;
1554     }
1555     max_idx = DIV_ROUND_UP(vdi_size, SD_DATA_OBJ_SIZE);
1556
1557     for (idx = 0; idx < max_idx; idx++) {
1558         /*
1559          * The created image can be a cloned image, so we need to read
1560          * a data from the source image.
1561          */
1562         ret = bdrv_pread(bs, idx * SD_DATA_OBJ_SIZE, buf, SD_DATA_OBJ_SIZE);
1563         if (ret < 0) {
1564             goto out;
1565         }
1566         ret = bdrv_pwrite(bs, idx * SD_DATA_OBJ_SIZE, buf, SD_DATA_OBJ_SIZE);
1567         if (ret < 0) {
1568             goto out;
1569         }
1570     }
1571
1572 out:
1573     if (ret < 0) {
1574         error_setg_errno(errp, -ret, "Can't pre-allocate");
1575     }
1576 out_with_err_set:
1577     if (bs) {
1578         bdrv_unref(bs);
1579     }
1580     g_free(buf);
1581
1582     return ret;
1583 }
1584
1585 /*
1586  * Sheepdog support two kinds of redundancy, full replication and erasure
1587  * coding.
1588  *
1589  * # create a fully replicated vdi with x copies
1590  * -o redundancy=x (1 <= x <= SD_MAX_COPIES)
1591  *
1592  * # create a erasure coded vdi with x data strips and y parity strips
1593  * -o redundancy=x:y (x must be one of {2,4,8,16} and 1 <= y < SD_EC_MAX_STRIP)
1594  */
1595 static int parse_redundancy(BDRVSheepdogState *s, const char *opt)
1596 {
1597     struct SheepdogInode *inode = &s->inode;
1598     const char *n1, *n2;
1599     long copy, parity;
1600     char p[10];
1601
1602     pstrcpy(p, sizeof(p), opt);
1603     n1 = strtok(p, ":");
1604     n2 = strtok(NULL, ":");
1605
1606     if (!n1) {
1607         return -EINVAL;
1608     }
1609
1610     copy = strtol(n1, NULL, 10);
1611     if (copy > SD_MAX_COPIES || copy < 1) {
1612         return -EINVAL;
1613     }
1614     if (!n2) {
1615         inode->copy_policy = 0;
1616         inode->nr_copies = copy;
1617         return 0;
1618     }
1619
1620     if (copy != 2 && copy != 4 && copy != 8 && copy != 16) {
1621         return -EINVAL;
1622     }
1623
1624     parity = strtol(n2, NULL, 10);
1625     if (parity >= SD_EC_MAX_STRIP || parity < 1) {
1626         return -EINVAL;
1627     }
1628
1629     /*
1630      * 4 bits for parity and 4 bits for data.
1631      * We have to compress upper data bits because it can't represent 16
1632      */
1633     inode->copy_policy = ((copy / 2) << 4) + parity;
1634     inode->nr_copies = copy + parity;
1635
1636     return 0;
1637 }
1638
1639 static int sd_create(const char *filename, QEMUOptionParameter *options,
1640                      Error **errp)
1641 {
1642     int ret = 0;
1643     uint32_t vid = 0;
1644     char *backing_file = NULL;
1645     BDRVSheepdogState *s;
1646     char tag[SD_MAX_VDI_TAG_LEN];
1647     uint32_t snapid;
1648     bool prealloc = false;
1649
1650     s = g_malloc0(sizeof(BDRVSheepdogState));
1651
1652     memset(tag, 0, sizeof(tag));
1653     if (strstr(filename, "://")) {
1654         ret = sd_parse_uri(s, filename, s->name, &snapid, tag);
1655     } else {
1656         ret = parse_vdiname(s, filename, s->name, &snapid, tag);
1657     }
1658     if (ret < 0) {
1659         error_setg(errp, "Can't parse filename");
1660         goto out;
1661     }
1662
1663     while (options && options->name) {
1664         if (!strcmp(options->name, BLOCK_OPT_SIZE)) {
1665             s->inode.vdi_size = options->value.n;
1666         } else if (!strcmp(options->name, BLOCK_OPT_BACKING_FILE)) {
1667             backing_file = options->value.s;
1668         } else if (!strcmp(options->name, BLOCK_OPT_PREALLOC)) {
1669             if (!options->value.s || !strcmp(options->value.s, "off")) {
1670                 prealloc = false;
1671             } else if (!strcmp(options->value.s, "full")) {
1672                 prealloc = true;
1673             } else {
1674                 error_setg(errp, "Invalid preallocation mode: '%s'",
1675                            options->value.s);
1676                 ret = -EINVAL;
1677                 goto out;
1678             }
1679         } else if (!strcmp(options->name, BLOCK_OPT_REDUNDANCY)) {
1680             if (options->value.s) {
1681                 ret = parse_redundancy(s, options->value.s);
1682                 if (ret < 0) {
1683                     error_setg(errp, "Invalid redundancy mode: '%s'",
1684                                options->value.s);
1685                     goto out;
1686                 }
1687             }
1688         }
1689         options++;
1690     }
1691
1692     if (s->inode.vdi_size > SD_MAX_VDI_SIZE) {
1693         error_setg(errp, "too big image size");
1694         ret = -EINVAL;
1695         goto out;
1696     }
1697
1698     if (backing_file) {
1699         BlockDriverState *bs;
1700         BDRVSheepdogState *base;
1701         BlockDriver *drv;
1702
1703         /* Currently, only Sheepdog backing image is supported. */
1704         drv = bdrv_find_protocol(backing_file, true);
1705         if (!drv || strcmp(drv->protocol_name, "sheepdog") != 0) {
1706             error_setg(errp, "backing_file must be a sheepdog image");
1707             ret = -EINVAL;
1708             goto out;
1709         }
1710
1711         bs = NULL;
1712         ret = bdrv_open(&bs, backing_file, NULL, NULL, BDRV_O_PROTOCOL, NULL,
1713                         errp);
1714         if (ret < 0) {
1715             goto out;
1716         }
1717
1718         base = bs->opaque;
1719
1720         if (!is_snapshot(&base->inode)) {
1721             error_setg(errp, "cannot clone from a non snapshot vdi");
1722             bdrv_unref(bs);
1723             ret = -EINVAL;
1724             goto out;
1725         }
1726         s->inode.vdi_id = base->inode.vdi_id;
1727         bdrv_unref(bs);
1728     }
1729
1730     ret = do_sd_create(s, &vid, 0, errp);
1731     if (ret) {
1732         goto out;
1733     }
1734
1735     if (prealloc) {
1736         ret = sd_prealloc(filename, errp);
1737     }
1738 out:
1739     g_free(s);
1740     return ret;
1741 }
1742
1743 static void sd_close(BlockDriverState *bs)
1744 {
1745     Error *local_err = NULL;
1746     BDRVSheepdogState *s = bs->opaque;
1747     SheepdogVdiReq hdr;
1748     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1749     unsigned int wlen, rlen = 0;
1750     int fd, ret;
1751
1752     DPRINTF("%s\n", s->name);
1753
1754     fd = connect_to_sdog(s, &local_err);
1755     if (fd < 0) {
1756         error_report("%s", error_get_pretty(local_err));;
1757         error_free(local_err);
1758         return;
1759     }
1760
1761     memset(&hdr, 0, sizeof(hdr));
1762
1763     hdr.opcode = SD_OP_RELEASE_VDI;
1764     hdr.base_vdi_id = s->inode.vdi_id;
1765     wlen = strlen(s->name) + 1;
1766     hdr.data_length = wlen;
1767     hdr.flags = SD_FLAG_CMD_WRITE;
1768
1769     ret = do_req(fd, (SheepdogReq *)&hdr, s->name, &wlen, &rlen);
1770
1771     closesocket(fd);
1772
1773     if (!ret && rsp->result != SD_RES_SUCCESS &&
1774         rsp->result != SD_RES_VDI_NOT_LOCKED) {
1775         error_report("%s, %s", sd_strerror(rsp->result), s->name);
1776     }
1777
1778     qemu_aio_set_fd_handler(s->fd, NULL, NULL, NULL);
1779     closesocket(s->fd);
1780     g_free(s->host_spec);
1781 }
1782
1783 static int64_t sd_getlength(BlockDriverState *bs)
1784 {
1785     BDRVSheepdogState *s = bs->opaque;
1786
1787     return s->inode.vdi_size;
1788 }
1789
1790 static int sd_truncate(BlockDriverState *bs, int64_t offset)
1791 {
1792     Error *local_err = NULL;
1793     BDRVSheepdogState *s = bs->opaque;
1794     int ret, fd;
1795     unsigned int datalen;
1796
1797     if (offset < s->inode.vdi_size) {
1798         error_report("shrinking is not supported");
1799         return -EINVAL;
1800     } else if (offset > SD_MAX_VDI_SIZE) {
1801         error_report("too big image size");
1802         return -EINVAL;
1803     }
1804
1805     fd = connect_to_sdog(s, &local_err);
1806     if (fd < 0) {
1807         error_report("%s", error_get_pretty(local_err));;
1808         error_free(local_err);
1809         return fd;
1810     }
1811
1812     /* we don't need to update entire object */
1813     datalen = SD_INODE_SIZE - sizeof(s->inode.data_vdi_id);
1814     s->inode.vdi_size = offset;
1815     ret = write_object(fd, (char *)&s->inode, vid_to_vdi_oid(s->inode.vdi_id),
1816                        s->inode.nr_copies, datalen, 0, false, s->cache_flags);
1817     close(fd);
1818
1819     if (ret < 0) {
1820         error_report("failed to update an inode.");
1821     }
1822
1823     return ret;
1824 }
1825
1826 /*
1827  * This function is called after writing data objects.  If we need to
1828  * update metadata, this sends a write request to the vdi object.
1829  * Otherwise, this switches back to sd_co_readv/writev.
1830  */
1831 static void coroutine_fn sd_write_done(SheepdogAIOCB *acb)
1832 {
1833     BDRVSheepdogState *s = acb->common.bs->opaque;
1834     struct iovec iov;
1835     AIOReq *aio_req;
1836     uint32_t offset, data_len, mn, mx;
1837
1838     mn = s->min_dirty_data_idx;
1839     mx = s->max_dirty_data_idx;
1840     if (mn <= mx) {
1841         /* we need to update the vdi object. */
1842         offset = sizeof(s->inode) - sizeof(s->inode.data_vdi_id) +
1843             mn * sizeof(s->inode.data_vdi_id[0]);
1844         data_len = (mx - mn + 1) * sizeof(s->inode.data_vdi_id[0]);
1845
1846         s->min_dirty_data_idx = UINT32_MAX;
1847         s->max_dirty_data_idx = 0;
1848
1849         iov.iov_base = &s->inode;
1850         iov.iov_len = sizeof(s->inode);
1851         aio_req = alloc_aio_req(s, acb, vid_to_vdi_oid(s->inode.vdi_id),
1852                                 data_len, offset, 0, 0, offset);
1853         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
1854         add_aio_request(s, aio_req, &iov, 1, false, AIOCB_WRITE_UDATA);
1855
1856         acb->aio_done_func = sd_finish_aiocb;
1857         acb->aiocb_type = AIOCB_WRITE_UDATA;
1858         return;
1859     }
1860
1861     sd_finish_aiocb(acb);
1862 }
1863
1864 /* Delete current working VDI on the snapshot chain */
1865 static bool sd_delete(BDRVSheepdogState *s)
1866 {
1867     Error *local_err = NULL;
1868     unsigned int wlen = SD_MAX_VDI_LEN, rlen = 0;
1869     SheepdogVdiReq hdr = {
1870         .opcode = SD_OP_DEL_VDI,
1871         .base_vdi_id = s->inode.vdi_id,
1872         .data_length = wlen,
1873         .flags = SD_FLAG_CMD_WRITE,
1874     };
1875     SheepdogVdiRsp *rsp = (SheepdogVdiRsp *)&hdr;
1876     int fd, ret;
1877
1878     fd = connect_to_sdog(s, &local_err);
1879     if (fd < 0) {
1880         error_report("%s", error_get_pretty(local_err));;
1881         error_free(local_err);
1882         return false;
1883     }
1884
1885     ret = do_req(fd, (SheepdogReq *)&hdr, s->name, &wlen, &rlen);
1886     closesocket(fd);
1887     if (ret) {
1888         return false;
1889     }
1890     switch (rsp->result) {
1891     case SD_RES_NO_VDI:
1892         error_report("%s was already deleted", s->name);
1893         /* fall through */
1894     case SD_RES_SUCCESS:
1895         break;
1896     default:
1897         error_report("%s, %s", sd_strerror(rsp->result), s->name);
1898         return false;
1899     }
1900
1901     return true;
1902 }
1903
1904 /*
1905  * Create a writable VDI from a snapshot
1906  */
1907 static int sd_create_branch(BDRVSheepdogState *s)
1908 {
1909     Error *local_err = NULL;
1910     int ret, fd;
1911     uint32_t vid;
1912     char *buf;
1913     bool deleted;
1914
1915     DPRINTF("%" PRIx32 " is snapshot.\n", s->inode.vdi_id);
1916
1917     buf = g_malloc(SD_INODE_SIZE);
1918
1919     /*
1920      * Even If deletion fails, we will just create extra snapshot based on
1921      * the working VDI which was supposed to be deleted. So no need to
1922      * false bail out.
1923      */
1924     deleted = sd_delete(s);
1925     ret = do_sd_create(s, &vid, !deleted, &local_err);
1926     if (ret) {
1927         error_report("%s", error_get_pretty(local_err));;
1928         error_free(local_err);
1929         goto out;
1930     }
1931
1932     DPRINTF("%" PRIx32 " is created.\n", vid);
1933
1934     fd = connect_to_sdog(s, &local_err);
1935     if (fd < 0) {
1936         error_report("%s", error_get_pretty(local_err));;
1937         error_free(local_err);
1938         ret = fd;
1939         goto out;
1940     }
1941
1942     ret = read_object(fd, buf, vid_to_vdi_oid(vid), s->inode.nr_copies,
1943                       SD_INODE_SIZE, 0, s->cache_flags);
1944
1945     closesocket(fd);
1946
1947     if (ret < 0) {
1948         goto out;
1949     }
1950
1951     memcpy(&s->inode, buf, sizeof(s->inode));
1952
1953     s->is_snapshot = false;
1954     ret = 0;
1955     DPRINTF("%" PRIx32 " was newly created.\n", s->inode.vdi_id);
1956
1957 out:
1958     g_free(buf);
1959
1960     return ret;
1961 }
1962
1963 /*
1964  * Send I/O requests to the server.
1965  *
1966  * This function sends requests to the server, links the requests to
1967  * the inflight_list in BDRVSheepdogState, and exits without
1968  * waiting the response.  The responses are received in the
1969  * `aio_read_response' function which is called from the main loop as
1970  * a fd handler.
1971  *
1972  * Returns 1 when we need to wait a response, 0 when there is no sent
1973  * request and -errno in error cases.
1974  */
1975 static int coroutine_fn sd_co_rw_vector(void *p)
1976 {
1977     SheepdogAIOCB *acb = p;
1978     int ret = 0;
1979     unsigned long len, done = 0, total = acb->nb_sectors * BDRV_SECTOR_SIZE;
1980     unsigned long idx = acb->sector_num * BDRV_SECTOR_SIZE / SD_DATA_OBJ_SIZE;
1981     uint64_t oid;
1982     uint64_t offset = (acb->sector_num * BDRV_SECTOR_SIZE) % SD_DATA_OBJ_SIZE;
1983     BDRVSheepdogState *s = acb->common.bs->opaque;
1984     SheepdogInode *inode = &s->inode;
1985     AIOReq *aio_req;
1986
1987     if (acb->aiocb_type == AIOCB_WRITE_UDATA && s->is_snapshot) {
1988         /*
1989          * In the case we open the snapshot VDI, Sheepdog creates the
1990          * writable VDI when we do a write operation first.
1991          */
1992         ret = sd_create_branch(s);
1993         if (ret) {
1994             acb->ret = -EIO;
1995             goto out;
1996         }
1997     }
1998
1999     /*
2000      * Make sure we don't free the aiocb before we are done with all requests.
2001      * This additional reference is dropped at the end of this function.
2002      */
2003     acb->nr_pending++;
2004
2005     while (done != total) {
2006         uint8_t flags = 0;
2007         uint64_t old_oid = 0;
2008         bool create = false;
2009
2010         oid = vid_to_data_oid(inode->data_vdi_id[idx], idx);
2011
2012         len = MIN(total - done, SD_DATA_OBJ_SIZE - offset);
2013
2014         switch (acb->aiocb_type) {
2015         case AIOCB_READ_UDATA:
2016             if (!inode->data_vdi_id[idx]) {
2017                 qemu_iovec_memset(acb->qiov, done, 0, len);
2018                 goto done;
2019             }
2020             break;
2021         case AIOCB_WRITE_UDATA:
2022             if (!inode->data_vdi_id[idx]) {
2023                 create = true;
2024             } else if (!is_data_obj_writable(inode, idx)) {
2025                 /* Copy-On-Write */
2026                 create = true;
2027                 old_oid = oid;
2028                 flags = SD_FLAG_CMD_COW;
2029             }
2030             break;
2031         case AIOCB_DISCARD_OBJ:
2032             /*
2033              * We discard the object only when the whole object is
2034              * 1) allocated 2) trimmed. Otherwise, simply skip it.
2035              */
2036             if (len != SD_DATA_OBJ_SIZE || inode->data_vdi_id[idx] == 0) {
2037                 goto done;
2038             }
2039             break;
2040         default:
2041             break;
2042         }
2043
2044         if (create) {
2045             DPRINTF("update ino (%" PRIu32 ") %" PRIu64 " %" PRIu64 " %ld\n",
2046                     inode->vdi_id, oid,
2047                     vid_to_data_oid(inode->data_vdi_id[idx], idx), idx);
2048             oid = vid_to_data_oid(inode->vdi_id, idx);
2049             DPRINTF("new oid %" PRIx64 "\n", oid);
2050         }
2051
2052         aio_req = alloc_aio_req(s, acb, oid, len, offset, flags, old_oid, done);
2053         QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
2054
2055         if (create) {
2056             if (check_simultaneous_create(s, aio_req)) {
2057                 goto done;
2058             }
2059         }
2060
2061         add_aio_request(s, aio_req, acb->qiov->iov, acb->qiov->niov, create,
2062                         acb->aiocb_type);
2063     done:
2064         offset = 0;
2065         idx++;
2066         done += len;
2067     }
2068 out:
2069     if (!--acb->nr_pending) {
2070         return acb->ret;
2071     }
2072     return 1;
2073 }
2074
2075 static coroutine_fn int sd_co_writev(BlockDriverState *bs, int64_t sector_num,
2076                         int nb_sectors, QEMUIOVector *qiov)
2077 {
2078     SheepdogAIOCB *acb;
2079     int ret;
2080     int64_t offset = (sector_num + nb_sectors) * BDRV_SECTOR_SIZE;
2081     BDRVSheepdogState *s = bs->opaque;
2082
2083     if (bs->growable && offset > s->inode.vdi_size) {
2084         ret = sd_truncate(bs, offset);
2085         if (ret < 0) {
2086             return ret;
2087         }
2088     }
2089
2090     acb = sd_aio_setup(bs, qiov, sector_num, nb_sectors);
2091     acb->aio_done_func = sd_write_done;
2092     acb->aiocb_type = AIOCB_WRITE_UDATA;
2093
2094     ret = sd_co_rw_vector(acb);
2095     if (ret <= 0) {
2096         qemu_aio_release(acb);
2097         return ret;
2098     }
2099
2100     qemu_coroutine_yield();
2101
2102     return acb->ret;
2103 }
2104
2105 static coroutine_fn int sd_co_readv(BlockDriverState *bs, int64_t sector_num,
2106                        int nb_sectors, QEMUIOVector *qiov)
2107 {
2108     SheepdogAIOCB *acb;
2109     int ret;
2110
2111     acb = sd_aio_setup(bs, qiov, sector_num, nb_sectors);
2112     acb->aiocb_type = AIOCB_READ_UDATA;
2113     acb->aio_done_func = sd_finish_aiocb;
2114
2115     ret = sd_co_rw_vector(acb);
2116     if (ret <= 0) {
2117         qemu_aio_release(acb);
2118         return ret;
2119     }
2120
2121     qemu_coroutine_yield();
2122
2123     return acb->ret;
2124 }
2125
2126 static int coroutine_fn sd_co_flush_to_disk(BlockDriverState *bs)
2127 {
2128     BDRVSheepdogState *s = bs->opaque;
2129     SheepdogAIOCB *acb;
2130     AIOReq *aio_req;
2131
2132     if (s->cache_flags != SD_FLAG_CMD_CACHE) {
2133         return 0;
2134     }
2135
2136     acb = sd_aio_setup(bs, NULL, 0, 0);
2137     acb->aiocb_type = AIOCB_FLUSH_CACHE;
2138     acb->aio_done_func = sd_finish_aiocb;
2139
2140     aio_req = alloc_aio_req(s, acb, vid_to_vdi_oid(s->inode.vdi_id),
2141                             0, 0, 0, 0, 0);
2142     QLIST_INSERT_HEAD(&s->inflight_aio_head, aio_req, aio_siblings);
2143     add_aio_request(s, aio_req, NULL, 0, false, acb->aiocb_type);
2144
2145     qemu_coroutine_yield();
2146     return acb->ret;
2147 }
2148
2149 static int sd_snapshot_create(BlockDriverState *bs, QEMUSnapshotInfo *sn_info)
2150 {
2151     Error *local_err = NULL;
2152     BDRVSheepdogState *s = bs->opaque;
2153     int ret, fd;
2154     uint32_t new_vid;
2155     SheepdogInode *inode;
2156     unsigned int datalen;
2157
2158     DPRINTF("sn_info: name %s id_str %s s: name %s vm_state_size %" PRId64 " "
2159             "is_snapshot %d\n", sn_info->name, sn_info->id_str,
2160             s->name, sn_info->vm_state_size, s->is_snapshot);
2161
2162     if (s->is_snapshot) {
2163         error_report("You can't create a snapshot of a snapshot VDI, "
2164                      "%s (%" PRIu32 ").", s->name, s->inode.vdi_id);
2165
2166         return -EINVAL;
2167     }
2168
2169     DPRINTF("%s %s\n", sn_info->name, sn_info->id_str);
2170
2171     s->inode.vm_state_size = sn_info->vm_state_size;
2172     s->inode.vm_clock_nsec = sn_info->vm_clock_nsec;
2173     /* It appears that inode.tag does not require a NUL terminator,
2174      * which means this use of strncpy is ok.
2175      */
2176     strncpy(s->inode.tag, sn_info->name, sizeof(s->inode.tag));
2177     /* we don't need to update entire object */
2178     datalen = SD_INODE_SIZE - sizeof(s->inode.data_vdi_id);
2179     inode = g_malloc(datalen);
2180
2181     /* refresh inode. */
2182     fd = connect_to_sdog(s, &local_err);
2183     if (fd < 0) {
2184         error_report("%s", error_get_pretty(local_err));;
2185         error_free(local_err);
2186         ret = fd;
2187         goto cleanup;
2188     }
2189
2190     ret = write_object(fd, (char *)&s->inode, vid_to_vdi_oid(s->inode.vdi_id),
2191                        s->inode.nr_copies, datalen, 0, false, s->cache_flags);
2192     if (ret < 0) {
2193         error_report("failed to write snapshot's inode.");
2194         goto cleanup;
2195     }
2196
2197     ret = do_sd_create(s, &new_vid, 1, &local_err);
2198     if (ret < 0) {
2199         error_report("%s", error_get_pretty(local_err));;
2200         error_free(local_err);
2201         error_report("failed to create inode for snapshot. %s",
2202                      strerror(errno));
2203         goto cleanup;
2204     }
2205
2206     ret = read_object(fd, (char *)inode, vid_to_vdi_oid(new_vid),
2207                       s->inode.nr_copies, datalen, 0, s->cache_flags);
2208
2209     if (ret < 0) {
2210         error_report("failed to read new inode info. %s", strerror(errno));
2211         goto cleanup;
2212     }
2213
2214     memcpy(&s->inode, inode, datalen);
2215     DPRINTF("s->inode: name %s snap_id %x oid %x\n",
2216             s->inode.name, s->inode.snap_id, s->inode.vdi_id);
2217
2218 cleanup:
2219     g_free(inode);
2220     closesocket(fd);
2221     return ret;
2222 }
2223
2224 /*
2225  * We implement rollback(loadvm) operation to the specified snapshot by
2226  * 1) switch to the snapshot
2227  * 2) rely on sd_create_branch to delete working VDI and
2228  * 3) create a new working VDI based on the specified snapshot
2229  */
2230 static int sd_snapshot_goto(BlockDriverState *bs, const char *snapshot_id)
2231 {
2232     BDRVSheepdogState *s = bs->opaque;
2233     BDRVSheepdogState *old_s;
2234     char tag[SD_MAX_VDI_TAG_LEN];
2235     uint32_t snapid = 0;
2236     int ret = 0;
2237
2238     old_s = g_malloc(sizeof(BDRVSheepdogState));
2239
2240     memcpy(old_s, s, sizeof(BDRVSheepdogState));
2241
2242     snapid = strtoul(snapshot_id, NULL, 10);
2243     if (snapid) {
2244         tag[0] = 0;
2245     } else {
2246         pstrcpy(tag, sizeof(tag), snapshot_id);
2247     }
2248
2249     ret = reload_inode(s, snapid, tag);
2250     if (ret) {
2251         goto out;
2252     }
2253
2254     ret = sd_create_branch(s);
2255     if (ret) {
2256         goto out;
2257     }
2258
2259     g_free(old_s);
2260
2261     return 0;
2262 out:
2263     /* recover bdrv_sd_state */
2264     memcpy(s, old_s, sizeof(BDRVSheepdogState));
2265     g_free(old_s);
2266
2267     error_report("failed to open. recover old bdrv_sd_state.");
2268
2269     return ret;
2270 }
2271
2272 static int sd_snapshot_delete(BlockDriverState *bs,
2273                               const char *snapshot_id,
2274                               const char *name,
2275                               Error **errp)
2276 {
2277     /* FIXME: Delete specified snapshot id.  */
2278     return 0;
2279 }
2280
2281 static int sd_snapshot_list(BlockDriverState *bs, QEMUSnapshotInfo **psn_tab)
2282 {
2283     Error *local_err = NULL;
2284     BDRVSheepdogState *s = bs->opaque;
2285     SheepdogReq req;
2286     int fd, nr = 1024, ret, max = BITS_TO_LONGS(SD_NR_VDIS) * sizeof(long);
2287     QEMUSnapshotInfo *sn_tab = NULL;
2288     unsigned wlen, rlen;
2289     int found = 0;
2290     static SheepdogInode inode;
2291     unsigned long *vdi_inuse;
2292     unsigned int start_nr;
2293     uint64_t hval;
2294     uint32_t vid;
2295
2296     vdi_inuse = g_malloc(max);
2297
2298     fd = connect_to_sdog(s, &local_err);
2299     if (fd < 0) {
2300         error_report("%s", error_get_pretty(local_err));;
2301         error_free(local_err);
2302         ret = fd;
2303         goto out;
2304     }
2305
2306     rlen = max;
2307     wlen = 0;
2308
2309     memset(&req, 0, sizeof(req));
2310
2311     req.opcode = SD_OP_READ_VDIS;
2312     req.data_length = max;
2313
2314     ret = do_req(fd, (SheepdogReq *)&req, vdi_inuse, &wlen, &rlen);
2315
2316     closesocket(fd);
2317     if (ret) {
2318         goto out;
2319     }
2320
2321     sn_tab = g_malloc0(nr * sizeof(*sn_tab));
2322
2323     /* calculate a vdi id with hash function */
2324     hval = fnv_64a_buf(s->name, strlen(s->name), FNV1A_64_INIT);
2325     start_nr = hval & (SD_NR_VDIS - 1);
2326
2327     fd = connect_to_sdog(s, &local_err);
2328     if (fd < 0) {
2329         error_report("%s", error_get_pretty(local_err));;
2330         error_free(local_err);
2331         ret = fd;
2332         goto out;
2333     }
2334
2335     for (vid = start_nr; found < nr; vid = (vid + 1) % SD_NR_VDIS) {
2336         if (!test_bit(vid, vdi_inuse)) {
2337             break;
2338         }
2339
2340         /* we don't need to read entire object */
2341         ret = read_object(fd, (char *)&inode, vid_to_vdi_oid(vid),
2342                           0, SD_INODE_SIZE - sizeof(inode.data_vdi_id), 0,
2343                           s->cache_flags);
2344
2345         if (ret) {
2346             continue;
2347         }
2348
2349         if (!strcmp(inode.name, s->name) && is_snapshot(&inode)) {
2350             sn_tab[found].date_sec = inode.snap_ctime >> 32;
2351             sn_tab[found].date_nsec = inode.snap_ctime & 0xffffffff;
2352             sn_tab[found].vm_state_size = inode.vm_state_size;
2353             sn_tab[found].vm_clock_nsec = inode.vm_clock_nsec;
2354
2355             snprintf(sn_tab[found].id_str, sizeof(sn_tab[found].id_str),
2356                      "%" PRIu32, inode.snap_id);
2357             pstrcpy(sn_tab[found].name,
2358                     MIN(sizeof(sn_tab[found].name), sizeof(inode.tag)),
2359                     inode.tag);
2360             found++;
2361         }
2362     }
2363
2364     closesocket(fd);
2365 out:
2366     *psn_tab = sn_tab;
2367
2368     g_free(vdi_inuse);
2369
2370     if (ret < 0) {
2371         return ret;
2372     }
2373
2374     return found;
2375 }
2376
2377 static int do_load_save_vmstate(BDRVSheepdogState *s, uint8_t *data,
2378                                 int64_t pos, int size, int load)
2379 {
2380     Error *local_err = NULL;
2381     bool create;
2382     int fd, ret = 0, remaining = size;
2383     unsigned int data_len;
2384     uint64_t vmstate_oid;
2385     uint64_t offset;
2386     uint32_t vdi_index;
2387     uint32_t vdi_id = load ? s->inode.parent_vdi_id : s->inode.vdi_id;
2388
2389     fd = connect_to_sdog(s, &local_err);
2390     if (fd < 0) {
2391         error_report("%s", error_get_pretty(local_err));;
2392         error_free(local_err);
2393         return fd;
2394     }
2395
2396     while (remaining) {
2397         vdi_index = pos / SD_DATA_OBJ_SIZE;
2398         offset = pos % SD_DATA_OBJ_SIZE;
2399
2400         data_len = MIN(remaining, SD_DATA_OBJ_SIZE - offset);
2401
2402         vmstate_oid = vid_to_vmstate_oid(vdi_id, vdi_index);
2403
2404         create = (offset == 0);
2405         if (load) {
2406             ret = read_object(fd, (char *)data, vmstate_oid,
2407                               s->inode.nr_copies, data_len, offset,
2408                               s->cache_flags);
2409         } else {
2410             ret = write_object(fd, (char *)data, vmstate_oid,
2411                                s->inode.nr_copies, data_len, offset, create,
2412                                s->cache_flags);
2413         }
2414
2415         if (ret < 0) {
2416             error_report("failed to save vmstate %s", strerror(errno));
2417             goto cleanup;
2418         }
2419
2420         pos += data_len;
2421         data += data_len;
2422         remaining -= data_len;
2423     }
2424     ret = size;
2425 cleanup:
2426     closesocket(fd);
2427     return ret;
2428 }
2429
2430 static int sd_save_vmstate(BlockDriverState *bs, QEMUIOVector *qiov,
2431                            int64_t pos)
2432 {
2433     BDRVSheepdogState *s = bs->opaque;
2434     void *buf;
2435     int ret;
2436
2437     buf = qemu_blockalign(bs, qiov->size);
2438     qemu_iovec_to_buf(qiov, 0, buf, qiov->size);
2439     ret = do_load_save_vmstate(s, (uint8_t *) buf, pos, qiov->size, 0);
2440     qemu_vfree(buf);
2441
2442     return ret;
2443 }
2444
2445 static int sd_load_vmstate(BlockDriverState *bs, uint8_t *data,
2446                            int64_t pos, int size)
2447 {
2448     BDRVSheepdogState *s = bs->opaque;
2449
2450     return do_load_save_vmstate(s, data, pos, size, 1);
2451 }
2452
2453
2454 static coroutine_fn int sd_co_discard(BlockDriverState *bs, int64_t sector_num,
2455                                       int nb_sectors)
2456 {
2457     SheepdogAIOCB *acb;
2458     QEMUIOVector dummy;
2459     BDRVSheepdogState *s = bs->opaque;
2460     int ret;
2461
2462     if (!s->discard_supported) {
2463             return 0;
2464     }
2465
2466     acb = sd_aio_setup(bs, &dummy, sector_num, nb_sectors);
2467     acb->aiocb_type = AIOCB_DISCARD_OBJ;
2468     acb->aio_done_func = sd_finish_aiocb;
2469
2470     ret = sd_co_rw_vector(acb);
2471     if (ret <= 0) {
2472         qemu_aio_release(acb);
2473         return ret;
2474     }
2475
2476     qemu_coroutine_yield();
2477
2478     return acb->ret;
2479 }
2480
2481 static coroutine_fn int64_t
2482 sd_co_get_block_status(BlockDriverState *bs, int64_t sector_num, int nb_sectors,
2483                        int *pnum)
2484 {
2485     BDRVSheepdogState *s = bs->opaque;
2486     SheepdogInode *inode = &s->inode;
2487     uint64_t offset = sector_num * BDRV_SECTOR_SIZE;
2488     unsigned long start = offset / SD_DATA_OBJ_SIZE,
2489                   end = DIV_ROUND_UP((sector_num + nb_sectors) *
2490                                      BDRV_SECTOR_SIZE, SD_DATA_OBJ_SIZE);
2491     unsigned long idx;
2492     int64_t ret = BDRV_BLOCK_DATA | BDRV_BLOCK_OFFSET_VALID | offset;
2493
2494     for (idx = start; idx < end; idx++) {
2495         if (inode->data_vdi_id[idx] == 0) {
2496             break;
2497         }
2498     }
2499     if (idx == start) {
2500         /* Get the longest length of unallocated sectors */
2501         ret = 0;
2502         for (idx = start + 1; idx < end; idx++) {
2503             if (inode->data_vdi_id[idx] != 0) {
2504                 break;
2505             }
2506         }
2507     }
2508
2509     *pnum = (idx - start) * SD_DATA_OBJ_SIZE / BDRV_SECTOR_SIZE;
2510     if (*pnum > nb_sectors) {
2511         *pnum = nb_sectors;
2512     }
2513     return ret;
2514 }
2515
2516 static int64_t sd_get_allocated_file_size(BlockDriverState *bs)
2517 {
2518     BDRVSheepdogState *s = bs->opaque;
2519     SheepdogInode *inode = &s->inode;
2520     unsigned long i, last = DIV_ROUND_UP(inode->vdi_size, SD_DATA_OBJ_SIZE);
2521     uint64_t size = 0;
2522
2523     for (i = 0; i < last; i++) {
2524         if (inode->data_vdi_id[i] == 0) {
2525             continue;
2526         }
2527         size += SD_DATA_OBJ_SIZE;
2528     }
2529     return size;
2530 }
2531
2532 static QEMUOptionParameter sd_create_options[] = {
2533     {
2534         .name = BLOCK_OPT_SIZE,
2535         .type = OPT_SIZE,
2536         .help = "Virtual disk size"
2537     },
2538     {
2539         .name = BLOCK_OPT_BACKING_FILE,
2540         .type = OPT_STRING,
2541         .help = "File name of a base image"
2542     },
2543     {
2544         .name = BLOCK_OPT_PREALLOC,
2545         .type = OPT_STRING,
2546         .help = "Preallocation mode (allowed values: off, full)"
2547     },
2548     {
2549         .name = BLOCK_OPT_REDUNDANCY,
2550         .type = OPT_STRING,
2551         .help = "Redundancy of the image"
2552     },
2553     { NULL }
2554 };
2555
2556 static BlockDriver bdrv_sheepdog = {
2557     .format_name    = "sheepdog",
2558     .protocol_name  = "sheepdog",
2559     .instance_size  = sizeof(BDRVSheepdogState),
2560     .bdrv_needs_filename = true,
2561     .bdrv_file_open = sd_open,
2562     .bdrv_close     = sd_close,
2563     .bdrv_create    = sd_create,
2564     .bdrv_has_zero_init = bdrv_has_zero_init_1,
2565     .bdrv_getlength = sd_getlength,
2566     .bdrv_get_allocated_file_size = sd_get_allocated_file_size,
2567     .bdrv_truncate  = sd_truncate,
2568
2569     .bdrv_co_readv  = sd_co_readv,
2570     .bdrv_co_writev = sd_co_writev,
2571     .bdrv_co_flush_to_disk  = sd_co_flush_to_disk,
2572     .bdrv_co_discard = sd_co_discard,
2573     .bdrv_co_get_block_status = sd_co_get_block_status,
2574
2575     .bdrv_snapshot_create   = sd_snapshot_create,
2576     .bdrv_snapshot_goto     = sd_snapshot_goto,
2577     .bdrv_snapshot_delete   = sd_snapshot_delete,
2578     .bdrv_snapshot_list     = sd_snapshot_list,
2579
2580     .bdrv_save_vmstate  = sd_save_vmstate,
2581     .bdrv_load_vmstate  = sd_load_vmstate,
2582
2583     .create_options = sd_create_options,
2584 };
2585
2586 static BlockDriver bdrv_sheepdog_tcp = {
2587     .format_name    = "sheepdog",
2588     .protocol_name  = "sheepdog+tcp",
2589     .instance_size  = sizeof(BDRVSheepdogState),
2590     .bdrv_needs_filename = true,
2591     .bdrv_file_open = sd_open,
2592     .bdrv_close     = sd_close,
2593     .bdrv_create    = sd_create,
2594     .bdrv_has_zero_init = bdrv_has_zero_init_1,
2595     .bdrv_getlength = sd_getlength,
2596     .bdrv_get_allocated_file_size = sd_get_allocated_file_size,
2597     .bdrv_truncate  = sd_truncate,
2598
2599     .bdrv_co_readv  = sd_co_readv,
2600     .bdrv_co_writev = sd_co_writev,
2601     .bdrv_co_flush_to_disk  = sd_co_flush_to_disk,
2602     .bdrv_co_discard = sd_co_discard,
2603     .bdrv_co_get_block_status = sd_co_get_block_status,
2604
2605     .bdrv_snapshot_create   = sd_snapshot_create,
2606     .bdrv_snapshot_goto     = sd_snapshot_goto,
2607     .bdrv_snapshot_delete   = sd_snapshot_delete,
2608     .bdrv_snapshot_list     = sd_snapshot_list,
2609
2610     .bdrv_save_vmstate  = sd_save_vmstate,
2611     .bdrv_load_vmstate  = sd_load_vmstate,
2612
2613     .create_options = sd_create_options,
2614 };
2615
2616 static BlockDriver bdrv_sheepdog_unix = {
2617     .format_name    = "sheepdog",
2618     .protocol_name  = "sheepdog+unix",
2619     .instance_size  = sizeof(BDRVSheepdogState),
2620     .bdrv_needs_filename = true,
2621     .bdrv_file_open = sd_open,
2622     .bdrv_close     = sd_close,
2623     .bdrv_create    = sd_create,
2624     .bdrv_has_zero_init = bdrv_has_zero_init_1,
2625     .bdrv_getlength = sd_getlength,
2626     .bdrv_get_allocated_file_size = sd_get_allocated_file_size,
2627     .bdrv_truncate  = sd_truncate,
2628
2629     .bdrv_co_readv  = sd_co_readv,
2630     .bdrv_co_writev = sd_co_writev,
2631     .bdrv_co_flush_to_disk  = sd_co_flush_to_disk,
2632     .bdrv_co_discard = sd_co_discard,
2633     .bdrv_co_get_block_status = sd_co_get_block_status,
2634
2635     .bdrv_snapshot_create   = sd_snapshot_create,
2636     .bdrv_snapshot_goto     = sd_snapshot_goto,
2637     .bdrv_snapshot_delete   = sd_snapshot_delete,
2638     .bdrv_snapshot_list     = sd_snapshot_list,
2639
2640     .bdrv_save_vmstate  = sd_save_vmstate,
2641     .bdrv_load_vmstate  = sd_load_vmstate,
2642
2643     .create_options = sd_create_options,
2644 };
2645
2646 static void bdrv_sheepdog_init(void)
2647 {
2648     bdrv_register(&bdrv_sheepdog);
2649     bdrv_register(&bdrv_sheepdog_tcp);
2650     bdrv_register(&bdrv_sheepdog_unix);
2651 }
2652 block_init(bdrv_sheepdog_init);
This page took 0.164808 seconds and 4 git commands to generate.