<div dir="ltr"><br><div class="gmail_extra"><br><div class="gmail_quote">2015-07-06 9:15 GMT+02:00 Vasiliy Tolstov <span dir="ltr"><<a href="mailto:v.tolstov@selfip.ru" target="_blank">v.tolstov@selfip.ru</a>></span>:<br><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><a href="http://searchcloudstorage.techtarget.com/news/2240242577/Alibaba-details-cold-storage-engine-for-Aliyun-cloud" rel="noreferrer" target="_blank">http://searchcloudstorage.techtarget.com/news/2240242577/Alibaba-details-cold-storage-engine-for-Aliyun-cloud</a><br>
<br>
what mean :<br>
<br>
Performance was slow when Sheepdog used the server as the node for its<br>
consistent hashing algorithm, according to Dong. If one disk failed,<br>
the server fetched the data from other servers and calculated the<br>
result of the erasure code to recover the lost data, he said.<br>
<br>
To remove the bottleneck, the team used the hard disk instead of the<br>
server as the node for the consistent hashing algorithm, enabling all<br>
the servers in the sub-cluster to participate in the recovery work if<br>
a hard disk failed.<br></blockquote><div><br></div><div>I think its about the building option '--enable-diskvnodes'.<br></div><div>It's disabled by default.<br></div><div>If disk fails, its content is replicated on the same node without triggering a cluster reweight.<br></div><div>If you build sheepdog wiht '--enable-diskvnodes' options, when a disk fails, a cluster reweight is called.<br></div></div></div></div>