<div dir="ltr">Paolo,<br>Comments are inlined.<br><br><div class="gmail_quote">On Wed, Sep 17, 2008 at 3:25 PM, Paolo Supino <span dir="ltr">&lt;<a href="mailto:paolo.supino@gmail.com">paolo.supino@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div>Hi Keith<br><br>&nbsp; There&#39;s a section on the website that gives the configuration for a unify/AFR but doesn&#39;t say whether AFR goes above or below unify. At the moment I don&#39;t need the whole 2TB and I can live with half of it, but I might down the road need the extra space. If and when that happens is it possible to break the unify/AFR and move everything to only unify without deleting data (not that will be an obstacle, see below)?</div>
</div></blockquote><div><br>Its recommended while adding new children to unify, the back end filesystems of children to be empty, hence you&#39;ve to delete the data.<br><br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div dir="ltr"><div> <br>
&nbsp; Can anyone answer the question: does AFR goes above or below unify?</div></div></blockquote><div><br>It can go either way. <br>1. If&nbsp; you are using&nbsp; AFR over unify, then you should have two unify translators, each with n/2 children and AFR should have these two unify translators as its children<br>
2. If you are using unify over AFR, then you should have n/2 AFR translators, each having 2 children and unify should have all the n/2 AFRs as its children.<br><br>where n is the number of nodes available for glusterfs. Though the option 2 leads to huge volume specification file relative to option 1 . I am not sure about any performance setup between these two configurations. Krishna/Avati, can you confirm this?<br>
<br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div dir="ltr"><div><br>&nbsp;<br>&nbsp; I don&#39;t think that the data stored on the gluster volume will be mission critical: it &#39;s genomic data that is being processed on the cluster. I think that the worst case scenario in case of brick loss will be that a few hours of processing will be lost.<br>

<br><br><br>--<br>TIA <br>Paolo <br>&nbsp;<br></div>
<div>&nbsp;</div>
<div>&nbsp; <br><br></div>
<div class="gmail_quote"><div class="Ih2E3d">On Wed, Sep 17, 2008 at 12:22 PM, Keith Freedman <span dir="ltr">&lt;<a href="mailto:freedman@freeformit.com" target="_blank">freedman@freeformit.com</a>&gt;</span> wrote:<br>

</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0px 0px 0px 0.8ex; padding-left: 1ex;"><div class="Ih2E3d">Some other things to consider:<br><br>the unify is a good idea to make use of all your space. &nbsp;However, with that many nodes, your probability of a node failing is high.<br>


so just be aware, if one of the nodes fails, whatever data stored on that node will be lost.<br><br>If you dont need the full 2TB&#39;s then I&#39;d suggest using AFR.<br><br>I *think* you can run afr UNDER unify, so you would create one unify brick with half the machines, another with the other half and AFR across them.<br>


but I&#39;m not sure.. it may be that AFR has to be above Unify<br><br>of course, if you don&#39;t care about the data really, i.e. it&#39;s all backup or working space or temp files, etc.. then no need to AFR them.<br><br>


Keith 
<div><br><br>At 01:52 AM 9/17/2008, Paolo Supino wrote:<br></div>
</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0px 0px 0px 0.8ex; padding-left: 1ex;"><div class="Ih2E3d">
<div>Hi Raghavendra<br><br>&nbsp;I like your reply and definitely will give it a try. There&#39;s nothing I hate mre than wasted infrastructure ...<br><br><br><br><br><br><br>--<br>TIA<br>Paolo<br><br><br></div>

</div><div class="Ih2E3d"><div>On Wed, Sep 17, 2008 at 8:13 AM, Raghavendra G &lt;&lt;mailto:<a href="mailto:raghavendra.hg@gmail.com" target="_blank">raghavendra.hg@gmail.com</a>&gt;<a href="mailto:raghavendra.hg@gmail.com" target="_blank">raghavendra.hg@gmail.com</a>&gt; wrote:<br>


Hi Paolo,<br><br>One of the configurations is to have glusterfs as server on each of the nodes exporting a brick. Each node should also have glusterfs &nbsp;running as client having unify translator, unifying all the servers.<br>


<br>regards,<br><br></div>
</div><div class="Ih2E3d"><div>On Tue, Sep 16, 2008 at 10:34 PM, Paolo Supino &lt;&lt;mailto:<a href="mailto:paolo.supino@gmail.com" target="_blank">paolo.supino@gmail.com</a>&gt;<a href="mailto:paolo.supino@gmail.com" target="_blank">paolo.supino@gmail.com</a>&gt; wrote:<br>


Hi<br><br>&nbsp;I have a small HPC cluster of 36 nodes (1 head, 35 compute). Each of the nodes has a 1 65GB (~ 2.2TB combined) volume that isn&#39;t being used. I thought of using a parallel filesystem in order to put this unused space into good use. The configuration I had in mind is: All nodes will act a bricks and all nodes will act as clients. I have no experience with Gluster and want to know what people on the mailing list thought of the idea, deployment scenario, pros and cons etc ... Any reply will help :-)<br>


<br><br><br>--<br>TIA<br>Paolo<br><br><br>_______________________________________________<br>Gluster-users mailing list<br></div></div>&lt;mailto:<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>&gt;<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><div class="Ih2E3d">
 
<div><br><a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br><br><br><br><br>--<br>Raghavendra G<br><br>
A centipede was happy quite, until a toad in fun,<br>Said, &quot;Prey, which leg comes after which?&quot;,<br>This raised his doubts to such a pitch,<br>He fell flat into the ditch,<br>Not knowing how to run.<br>-Anonymous<br>


<br><br>_______________________________________________<br>Gluster-users mailing list<br><a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br><a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br>


</div></div></blockquote><br></blockquote></div><br></div>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br>
<br></blockquote></div><br><br clear="all"><br>-- <br>Raghavendra G<br><br>A centipede was happy quite, until a toad in fun,<br>Said, &quot;Prey, which leg comes after which?&quot;,<br>This raised his doubts to such a pitch,<br>
He fell flat into the ditch,<br>Not knowing how to run.<br>-Anonymous<br>
</div>