<div dir="ltr">Hi Paolo,<br><br>Take a look at <a href="http://www.gluster.org/docs/index.php/Understanding_Unify_Translator">http://www.gluster.org/docs/index.php/Understanding_Unify_Translator</a> .<br>The diagram on this page indicates that the AFRs / Stripe, etc should be just below the unify.&nbsp; However, I *think* it is more of a suggestion than a binding rule as I don&#39;t see anything the Volume descriptor syntax to prevent you from doing it the other way round.<br>
<br>On your observations of poor performance on 100Mbps interconnect, I&#39;m facing the same issues. In particular, the performance starts degrading very fast when the file sizes drop below 64K.<br><br>We&#39;ll be doing file system tweaks some time this week and will post the results if they are any good.<br>
<br>Regards<br>Chandranshu<br><br><div class="gmail_quote">On Wed, Sep 17, 2008 at 4:55 PM,  <span dir="ltr">&lt;<a href="mailto:gluster-users-request@gluster.org">gluster-users-request@gluster.org</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Message: 5<br>
Date: Wed, 17 Sep 2008 13:25:11 +0200<br>
From: &quot;Paolo Supino&quot; &lt;<a href="mailto:paolo.supino@gmail.com">paolo.supino@gmail.com</a>&gt;<br>
Subject: Re: [Gluster-users] deployment<br>
To: &quot;Keith Freedman&quot; &lt;<a href="mailto:freedman@freeformit.com">freedman@freeformit.com</a>&gt;<br>
Cc: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Message-ID:<br>
 &nbsp; &nbsp; &nbsp; &nbsp;&lt;<a href="mailto:2e94257a0809170425y5805854eq43b3be8fb4d74417@mail.gmail.com">2e94257a0809170425y5805854eq43b3be8fb4d74417@mail.gmail.com</a>&gt;<br>
Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br>
<br>
Hi Keith<br>
<br>
 &nbsp;There&#39;s a section on the website that gives the configuration for a<br>
unify/AFR but doesn&#39;t say whether AFR goes above or below unify. At the<br>
moment I don&#39;t need the whole 2TB and I can live with half of it, but I<br>
might down the road need the extra space. If and when that happens is it<br>
possible to break the unify/AFR and move everything to only unify without<br>
deleting data (not that will be an obstacle, see below)?<br>
 &nbsp;Can anyone answer the question: does AFR goes above or below unify?<br>
<br>
 &nbsp;I don&#39;t think that the data stored on the gluster volume will be mission<br>
critical: it &#39;s genomic data that is being processed on the cluster. I think<br>
that the worst case scenario in case of brick loss will be that a few hours<br>
of processing will be lost.<br>
<br>
<br>
<br>
--<br>
TIA<br>
Paolo<br>
<br>
<br>
<br>
<br>
On Wed, Sep 17, 2008 at 12:22 PM, Keith Freedman &lt;<a href="mailto:freedman@freeformit.com">freedman@freeformit.com</a>&gt;wrote:<br>
<br>
&gt; Some other things to consider:<br>
&gt;<br>
&gt; the unify is a good idea to make use of all your space. &nbsp;However, with that<br>
&gt; many nodes, your probability of a node failing is high.<br>
&gt; so just be aware, if one of the nodes fails, whatever data stored on that<br>
&gt; node will be lost.<br>
&gt;<br>
&gt; If you dont need the full 2TB&#39;s then I&#39;d suggest using AFR.<br>
&gt;<br>
&gt; I *think* you can run afr UNDER unify, so you would create one unify brick<br>
&gt; with half the machines, another with the other half and AFR across them.<br>
&gt; but I&#39;m not sure.. it may be that AFR has to be above Unify<br>
&gt;<br>
&gt; of course, if you don&#39;t care about the data really, i.e. it&#39;s all backup or<br>
&gt; working space or temp files, etc.. then no need to AFR them.<br>
&gt;<br>
&gt; Keith<br>
&gt;<br>
&gt; At 01:52 AM 9/17/2008, Paolo Supino wrote:<br>
&gt;<br>
&gt;&gt; Hi Raghavendra<br>
&gt;&gt;<br>
&gt;&gt; &nbsp;I like your reply and definitely will give it a try. There&#39;s nothing I<br>
&gt;&gt; hate mre than wasted infrastructure ...<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; TIA<br>
&gt;&gt; Paolo<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; On Wed, Sep 17, 2008 at 8:13 AM, Raghavendra G &lt;&lt;mailto:<br>
&gt;&gt; <a href="mailto:raghavendra.hg@gmail.com">raghavendra.hg@gmail.com</a>&gt;<a href="mailto:raghavendra.hg@gmail.com">raghavendra.hg@gmail.com</a>&gt; wrote:<br>
&gt;&gt; Hi Paolo,<br>
&gt;&gt;<br>
&gt;&gt; One of the configurations is to have glusterfs as server on each of the<br>
&gt;&gt; nodes exporting a brick. Each node should also have glusterfs &nbsp;running as<br>
&gt;&gt; client having unify translator, unifying all the servers.<br>
&gt;&gt;<br>
&gt;&gt; regards,<br>
&gt;&gt;<br>
&gt;&gt; On Tue, Sep 16, 2008 at 10:34 PM, Paolo Supino &lt;&lt;mailto:<br>
&gt;&gt; <a href="mailto:paolo.supino@gmail.com">paolo.supino@gmail.com</a>&gt;<a href="mailto:paolo.supino@gmail.com">paolo.supino@gmail.com</a>&gt; wrote:<br>
&gt;&gt; Hi<br>
&gt;&gt;<br>
&gt;&gt; &nbsp;I have a small HPC cluster of 36 nodes (1 head, 35 compute). Each of the<br>
&gt;&gt; nodes has a 1 65GB (~ 2.2TB combined) volume that isn&#39;t being used. I<br>
&gt;&gt; thought of using a parallel filesystem in order to put this unused space<br>
&gt;&gt; into good use. The configuration I had in mind is: All nodes will act a<br>
&gt;&gt; bricks and all nodes will act as clients. I have no experience with Gluster<br>
&gt;&gt; and want to know what people on the mailing list thought of the idea,<br>
&gt;&gt; deployment scenario, pros and cons etc ... Any reply will help :-)<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; TIA<br>
&gt;&gt; Paolo<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; &lt;mailto:<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>&gt;<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; --<br>
&gt;&gt; Raghavendra G<br>
&gt;&gt;<br>
&gt;&gt; A centipede was happy quite, until a toad in fun,<br>
&gt;&gt; Said, &quot;Prey, which leg comes after which?&quot;,<br>
&gt;&gt; This raised his doubts to such a pitch,<br>
&gt;&gt; He fell flat into the ditch,<br>
&gt;&gt; Not knowing how to run.<br>
&gt;&gt; -Anonymous<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; _______________________________________________<br>
&gt;&gt; Gluster-users mailing list<br>
&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt; <a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
-------------- next part --------------<br>
An HTML attachment was scrubbed...<br>
URL: <a href="http://zresearch.com/pipermail/gluster-users/attachments/20080917/b97b508c/attachment.htm" target="_blank">http://zresearch.com/pipermail/gluster-users/attachments/20080917/b97b508c/attachment.htm</a><br>
<br>
------------------------------<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://zresearch.com/cgi-bin/mailman/listinfo/gluster-users</a><br>
<br>
<br>
End of Gluster-users Digest, Vol 5, Issue 14<br>
********************************************<br>
</blockquote></div><br></div>