Hi Stas,<br><br>please find the answers inlined.<br><br><div class="gmail_quote">On Mon, Dec 8, 2008 at 1:55 PM, Stas Oskin <span dir="ltr">&lt;<a href="mailto:stas.oskin@gmail.com">stas.oskin@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr">Hi.<br><br>Thanks for your answer, it clarifies the matter a bit for me (+ several hours I spent on Gluster wiki :) )<br>
<br><div class="gmail_quote"><div class="Ih2E3d"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div class="gmail_quote"><div>you can have two unify of 5 bricks each and have these two as children of afr. something like,<br>
<br>volume unify-0<br>type cluster/unify<br>subvolumes n1 n2 n3 n4 n5<br>end-volume<br><br>volume unify-1<br>
type cluster/unify<br>
subvolumes n6 n7 n8 n9 n10<br>
end-volume<br>
<br>volume afr<br>type cluster/afr<br>subvolumes unify-0 unify-1<br>end-volume</div></div></blockquote></div><div><br>Several questions if I may:<br><br>1) In this setup, anything written to volume afr would be actually duplicated to unify-1 and unify-2, correct?</div>
</div></div></blockquote><div><br>yes<br>&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div class="gmail_quote"><div>
<br>
2) I will not be able to track which server the file copies go to - from my point of view it&#39;s 2 pools of storage unified by single<br></div></div></div></blockquote><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div dir="ltr"><div class="gmail_quote"><div> space?</div></div></div></blockquote><div><br>2 pools of storage replicating each other. Each pool is unify of 5 storage nodes.<br>&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div dir="ltr"><div class="gmail_quote"><div><br>3) This setup actually means that I will need to add 2 servers every time, correct?</div></div></div></blockquote><div><br>you mean, every time you want to add new storage capacity?For the normal functioning of glusterfs, its not a requirement. glusterfs can continue to function even If you add a node to only one of the pool. But since the data is always replicated between two unify volumes, its practical to add a node to each of the unify pool.<br>
&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div class="gmail_quote"><div><br>
4) What if one of disks in any volume breaks - unify/AFR/client would overcome it and supply data from another disk, correct?</div></div></div></blockquote><div><br>afr identifies it and serves data from another pool.<br>
&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div class="gmail_quote"><div><br>5) When I bring the disk back, using the &quot;find&quot; approach would re-sync it to the current state?</div>
</div></div></blockquote><div><br>yes. When you open the file, afr self heal is triggered and the file is updated to the latest state.<br><br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div dir="ltr"><div class="gmail_quote"><div><br>
6) What if I run &quot;find&quot; BEFORE bringing the disk back - would it put the files on some other disk, or would still require the disk to come back?</div></div></div></blockquote><div><br>Running find before has no effect in terms of healing of the file. The file is healed only when the other node is up and glusterfs finds it to be not of latest version when compared to other copy.<br>
<br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div class="gmail_quote"><div><br>7) Would this kind of setup function in NUFA environment?</div>
</div></div></blockquote><div><br>I dont understand the question. Unify has nufa scheduler which prefers local node over other nodes while file creation. Also afr has an option read-subvolume, where you can specify the preferred node for read. Using both the options, one can have nufa kind of environment.<br>
<br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div class="gmail_quote"><div><br>8) Finally, would it be ever possible to make GlusterFS as transparent space completely? Meaning, just have one large space, which accepts new volumes automatically, provides this space to clients, and always insures there is at least 2 copies present?</div>
</div></div></blockquote><div><br>The current approach of having two unify of storage nodes will prevail. However, there is a distributed hash translator which does not require namespace cache and hence scalable better than unify. Also &quot;hot-add&quot; functionality is scheduled for future releases which enables automatic addition of nodes without requiring restart of glusterfs.<br>
&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div class="gmail_quote"><div><br>
<br>Thanks in advance for your time.<br></div></div></div>
</blockquote></div><br><br clear="all">regards,<br>-- <br>Raghavendra G<br><br>