<div dir="ltr"><div><div><div><div><div><div><div>Hi all,<br><br></div>I am still experiencing this problem which is blocking me from using sheepdog in a testing environment, let alone production. Right now, for me, the 'dog vdi rollback' command does not delete any 
changes made after the snapshot, it just makes them inaccessible.<br><br></div>Is there anyone here using the rollback feature who had any success in freeing up the disk space?<br></div>Or is it my workflow and understanding of snapshot/rollback features? Should I use clone/delete instead?<br><br></div><div>I have enabled the discard option on the host and slave machines. I haven't seen any difference in using different virtualized controllers, I have tried: VirtIO, SCSI and SATA.<br></div><br></div>Regards,<br></div>  Teun<br><br><br></div>PS. Some command output:<br><div><div><div><div><br><font size="2"><span style="font-family:monospace,monospace">root@host:~# dog vdi rollback -s 1 debian<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog vdi rollback -s 2 centos<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog node info<br>Id    Size    Used    Avail    Use%<br> 0    84 GB    25 GB    59 GB     30%<br> 1    84 GB    28 GB    56 GB     33%<br> 2    84 GB    25 GB    60 GB     29%<br>Total    253 GB    79 GB    175 GB     31%<br><br>Total virtual image size    40 GB<br><br>--- Ansible Run<br><br>root@host:~# dog node info<br>Id    Size    Used    Avail    Use%<br> 0    84 GB    27 GB    57 GB     32%<br> 1    84 GB    31 GB    54 GB     36%<br> 2    84 GB    27 GB    58 GB     31%<br>Total    253 GB    85 GB    168 GB     33%<br><br>Total virtual image size    40 GB<br>root@host:~# dog vdi rollback -s 2 centos<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog vdi rollback -s 1 debian<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog node info<br>Id    Size    Used    Avail    Use%<br> 0    84 GB    27 GB    57 GB     32%<br> 1    84 GB    31 GB    54 GB     36%<br> 2    84 GB    27 GB    58 GB     31%<br>Total    253 GB    85 GB    168 GB     33%<br><br>Total virtual image size    40 GB<br><br>--- Ansible Run<br><br>root@host:~# dog node info<br>Id    Size    Used    Avail    Use%<br> 0    84 GB    33 GB    52 GB     38%<br> 1    84 GB    37 GB    48 GB     43%<br> 2    84 GB    32 GB    52 GB     37%<br>Total    253 GB    102 GB    152 GB     40%<br><br>Total virtual image size    40 GB<br>root@host:~# dog vdi list<br>  Name        Id    Size    Used  Shared    Creation time   VDI id  Copies  Tag<br>s centos       2   20 GB  204 MB  1.4 GB 2017-04-05 17:57   8d7d4a      2             <br>  centos       0   20 GB  1.9 GB  700 MB 2017-04-18 11:02   8d7d57      2             <br>s debian       1   20 GB  2.4 GB  0.0 MB 2017-04-05 17:12   b1f0b0      2             <br>  debian       0   20 GB  2.4 GB  1.3 GB 2017-04-18 11:02   b1f0bd      2             <br>root@host:~# dog vdi rollback -s 2 centos<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog vdi rollback -s 1 debian<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog node info<br>Id    Size    Used    Avail    Use%<br> 0    84 GB    33 GB    52 GB     38%<br> 1    84 GB    37 GB    48 GB     43%<br> 2    84 GB    32 GB    52 GB     37%<br>Total    253 GB    102 GB    152 GB     40%<br><br>Total virtual image size    40 GB<br><br>--- Ansible Run<br><br>root@host:~# dog vdi rollback -s 2 centos<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog vdi rollback -s 1 debian<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>root@host:~# dog node info<br>Id    Size    Used    Avail    Use%<br> 0    84 GB    36 GB    48 GB     42%<br> 1    84 GB    40 GB    44 GB     47%<br> 2    84 GB    35 GB    49 GB     41%<br>Total    253 GB    112 GB    142 GB     44%<br><br>Total virtual image size    40 GB</span></font><br><div style="margin-left:40px"><br></div><br></div></div></div></div></div><div class="gmail_extra"><br><div class="gmail_quote">On 22 March 2017 at 11:29, Teun Kloosterman <span dir="ltr"><<a href="mailto:teunkloosterman@gmail.com" target="_blank">teunkloosterman@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div><div><div><div>Hi,<br><br></div>I'm afraid the discard option did not help with my issue.<br><br></div>Is there any problem with the rollback command?<br>I use it extensively for resetting these test machines to vanilla state.<br><br></div>Regards,<br></div>  Teun<br><br><div><div><div><div><div><div><div>---<br>root@host:~# dog node info<span class=""><br>Id    Size    Used    Avail    Use%<br></span> 0    94 GB    88 GB    6.3 GB     93%<br> 1    99 GB    99 GB    0.0 MB    100%<br> 2    94 GB    86 GB    7.6 GB     91%<br>Total    286 GB    272 GB    14 GB     95%<br><br>Total virtual image size    40 GB<br><br>root@host:~# dog vdi list<span class=""><br>  Name        Id    Size    Used  Shared    Creation time   VDI id  Copies  Tag<br></span>s centos       1   20 GB  2.2 GB  0.0 MB 2017-02-02 11:41   8d7d49      2              <br>s pxe          1   20 GB  3.5 GB  0.0 MB 2017-02-02 11:41   917450      2              <br>s debian       2   20 GB  920 MB  1.4 GB 2017-03-15 11:23   b1f0b6      2              <br>  debian       0   20 GB  0.0 MB  2.2 GB 2017-03-22 10:42   b1f0ca      2              <br>  arch         0   20 GB  1.9 GB  0.0 MB 2017-02-08 10:40   b23369      2              <br><br>root@host:~# dog vdi rollback -s 2 debian<br>This operation dicards any changes made since the previous<br>snapshot was taken.  Continue? [yes/no]: yes<br>Failed to create VDI debian: Failed to write to requested VDI<br></div></div></div></div></div></div></div></div><div class="HOEnZb"><div class="h5"><div class="gmail_extra"><br><div class="gmail_quote">On 31 January 2017 at 17:18, Vasiliy Tolstov <span dir="ltr"><<a href="mailto:v.tolstov@selfip.ru" target="_blank">v.tolstov@selfip.ru</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="auto">You must enable discard inside VM, enable discard in qemu, and don't use fully preallocated images</div><div class="gmail_extra"><br><div class="gmail_quote">31 Янв 2017 г. 18:41 пользователь "Teun Kloosterman" <<a href="mailto:teunkloosterman@gmail.com" target="_blank">teunkloosterman@gmail.com</a>> написал:<br type="attribution"><blockquote class="m_7322841455176931616m_2710970225970131884quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div><div class="m_7322841455176931616h5"><div dir="ltr"><div><div><div><div>Hi all,<br><br></div>I've installed a sheepdog cluster for testing purposes on some desktop PCs. These have 120GB SSDs, which is not big, I know, but should suffice. They all run stock Debian Jessie with stable sheepdog 0.8.3-2 installed.<br><br></div>Now I'm running into the issue that sheepdog consumes all disk space on these machines, all the way down to zero, and I cannot help it. These machines use less than 5GB for themselves and more than 270GB on sheepdog data. The images should consume (1.5 + 2.3) * 2 = 7.5GB or a maximum of 20 * 3 * 2 = 120 G. All data is located in the /mnt/sheep/0 data folder and the .stale folder is empty.<br><br></div>Can anyone explain to me what this data is and how I can manage it?<br></div><br><div><div><span style="font-family:monospace,monospace">root@host03:/# dog node info<br>Id    Size    Used    Avail    Use%<br> 0    89 GB    89 GB    0.0 MB    100%<br> 1    97 GB    91 GB    5.5 GB     94%<br> 2    97 GB    92 GB    4.6 GB     95%<br>Total    282 GB    272 GB    10 GB     96%<br><br>Total virtual image size    20 GB<br><br>root@host03:/# dog vdi list<br>  Name        Id    Size    Used  Shared    Creation time   VDI id  Copies  Tag<br>s centos       1   20 GB  1.5 GB  0.0 MB 2016-09-14 13:12   8d7d6a      2              <br>  pxe          0   20 GB  0.0 MB  0.0 MB 2016-10-24 17:18   917450      2              <br>s debian       1   20 GB  2.3 GB  0.0 MB 2016-09-14 13:12   b1f0d2      2              <br></span><br></div><div>Kind regards,<br></div><div>  Teun Kloosterman<br></div></div></div>
<br></div></div><span class="m_7322841455176931616HOEnZb"><font color="#888888">--<br>
sheepdog-users mailing lists<br>
<a href="mailto:sheepdog-users@lists.wpkg.org" target="_blank">sheepdog-users@lists.wpkg.org</a><br>
<a href="https://lists.wpkg.org/mailman/listinfo/sheepdog-users" rel="noreferrer" target="_blank">https://lists.wpkg.org/mailman<wbr>/listinfo/sheepdog-users</a><br>
<br></font></span></blockquote></div><br></div>
</blockquote></div><br></div>
</div></div></blockquote></div><br></div>