On Mon, Mar 25, 2013 at 1:07 PM, Jeff Darcy <span dir="ltr">&lt;<a href="mailto:jdarcy@redhat.com" target="_blank">jdarcy@redhat.com</a>&gt;</span> wrote:<br><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div class="im"><br></div><div class="im">I&#39;m a little surprised by the positive reactions to the &quot;Gluster on</div>
Gluster&quot; approach.  Even though Kaleb and I considered it for HekaFS,<br>
it&#39;s still a bit of a hack.  In particular, we&#39;d still have to solve the<br>
problems of keeping that private instance available, restarting daemons<br>
and initiating repair etc. - exactly the problems it&#39;s supposed to be<br>
solving for the rest of the system.<br></blockquote><div><br></div><div>For my part the reason I like it because it seems conceptually &quot;pure&quot; and all the other solutions still need to be bootstrapped somehow anyway, and I know how getting the Gluster setup works. Though I&#39;m aware that it might be more complicated than it&#39;s worth even if it might seem clean from the outside. You&#39;ve undoubtably thought a lot more about the problems with it than I have... </div>
<div><br></div><div>In any case, if the bootstrapping of this is all hidden behind just an extra option on &quot;peer probe&quot; for example, then it doesn&#39;t make all that much of a difference if that triggers bootstrapping a Gluster configuration volume or Doozer or something else entirely as long as the chosen option doesn&#39;t make day to day troubleshooting and maintenance much harder...</div>
<div><br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div class="im">If we just do something like &quot;first three servers to be configured become</div>
configuration servers&quot; then we run a very high risk of choosing exactly<br>
those servers that are most likely to fail together.  :(  As long as the<br>
extra configuration is limited to one option on &quot;peer probe&quot; is it<br>
really a problem?<br></blockquote><div><br></div><div>I think perhaps I&#39;m looking at it from the specific point of view of a user that will generally have fairly small volumes. When you have volumes with (say) no more than 5-6 nodes in most cases, it&#39;d be more painful to now also have to worry about whether that failed node is one of the configuration nodes and have to create a new one. It&#39;s one more thing that can go wrong. For a large deployment I agree you _need_ to know those kind of things, but for a small one I&#39;d be inclined to just make every node hold the configuration data. </div>
<div><br></div><div>As long as there&#39;s no hard limits that prevents us from just adding the &quot;as master&quot; on &quot;peer probe&quot; of all nodes for small clusters (other than perhaps performance tradeoffs etc. if the number grows too large), then that&#39;d be fine, I think. I can avoid the complexity of paying attention to which ones are &quot;special&quot;, and people with larger clusters can still control it in detail...</div>
<div><br></div><div>Vidar</div></div>