Jordi,<br>&nbsp; Do you have any firewall running on machines?<br><br>--<br>gowda<br><br><div class="gmail_quote">On Thu, Dec 18, 2008 at 1:47 PM, Jordi Moles Blanco <span dir="ltr">&lt;<a href="mailto:jordi@cdmon.com">jordi@cdmon.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">En/na Raghavendra G ha escrit:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><div class="Ih2E3d">
Hi Jordi,<br>
<br>
Have you started glusterfsd on each of the newly added nodes? If not, please start them.<br>
<br>
some comments have been inlined.<br>
<br></div><div><div></div><div class="Wj3C7c">
On Wed, Dec 17, 2008 at 3:28 PM, Jordi Moles Blanco &lt;<a href="mailto:jordi@cdmon.com" target="_blank">jordi@cdmon.com</a> &lt;mailto:<a href="mailto:jordi@cdmon.com" target="_blank">jordi@cdmon.com</a>&gt;&gt; wrote:<br>

<br>
 &nbsp; &nbsp;Hi,<br>
<br>
 &nbsp; &nbsp;i&#39;ve got 6 nodes providing a storage unit with gluster 2.5 patch<br>
 &nbsp; &nbsp;800. They are set in 2 groups of 3 nodes each.<br>
<br>
 &nbsp; &nbsp;On top of that, i&#39;ve got a Xen 3.2 machine storing its virtual<br>
 &nbsp; &nbsp;machines in gluster mount point.<br>
<br>
 &nbsp; &nbsp;The thing is that i used to have only 2 nodes for group, that&#39;s 4<br>
 &nbsp; &nbsp;nodes in total, and today I&#39;m trying to add 1 extra node for each<br>
 &nbsp; &nbsp;group.<br>
<br>
 &nbsp; &nbsp;This is the final setting on Xen&#39;s Side:<br>
<br>
<br>
 &nbsp; &nbsp;**************<br>
<br>
 &nbsp; &nbsp;volume espai1<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.3<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-subvolume espai<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume espai2<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.4<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-subvolume espai<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume espai3<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.5<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-subvolume espai<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume espai4<br>
 &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.6<br>
 &nbsp; &nbsp; &nbsp;option remote-subvolume espai<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume espai5<br>
 &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.7<br>
 &nbsp; &nbsp; &nbsp;option remote-subvolume espai<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume espai6<br>
 &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.8<br>
 &nbsp; &nbsp; &nbsp;option remote-subvolume espai<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume namespace1<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.4<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-subvolume nm<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume namespace2<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type protocol/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-host 10.0.0.5<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option remote-subvolume nm<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume grup1<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type cluster/afr<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;subvolumes espai1 espai3 espai5<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume grup2<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type cluster/afr<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;subvolumes espai2 espai4 espai6<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume nm<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type cluster/afr<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;subvolumes namespace1 namespace2<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume g01<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type cluster/unify<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;subvolumes grup1 grup2<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option scheduler rr<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option namespace nm<br>
 &nbsp; &nbsp;end-volume<br>
<br>
 &nbsp; &nbsp;volume io-cache<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;type performance/io-cache<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option cache-size 512MB<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option page-size 1MB<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;option force-revalidate-timeout 2<br>
 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;subvolumes g01<br>
 &nbsp; &nbsp;end-volume &nbsp;<br>
 &nbsp; &nbsp;**************<br>
<br>
 &nbsp; &nbsp;so... i stopped all virtual machines, unmounted gluster on Xen,<br>
 &nbsp; &nbsp;updated the spec file (the one above) and ran gluster again in Xen.<br>
<br>
 &nbsp; &nbsp;I&#39;ve set different gluster environments but i had never tried<br>
 &nbsp; &nbsp;this, and now i&#39;m facing some problems.<br>
<br>
 &nbsp; &nbsp;For what i had read before this... i used to think that when<br>
 &nbsp; &nbsp;adding and extra node to a group and &quot;remounting&quot; on client&#39;s<br>
 &nbsp; &nbsp;side, the Healing feature would copy all the content of the other<br>
 &nbsp; &nbsp;nodes already present in the group to the &quot;new one&quot;. That hasn&#39;t<br>
 &nbsp; &nbsp;happened, even when I&#39;ve tried to force the file system, by<br>
 &nbsp; &nbsp;listing the files or doing what you suggest in you documentation:<br>
<br>
 &nbsp; &nbsp;**********<br>
<br>
 &nbsp; &nbsp;find /mnt/glusterfs -type f -print0 | xargs -0 head -c1 &gt;/dev/null<br>
<br>
 &nbsp; &nbsp;**********<br>
<br>
 &nbsp; &nbsp;so... my first question would be... does &quot;self-healing&quot; work this<br>
 &nbsp; &nbsp;way? If it doesn&#39;t.... which is the best way to add a node to a<br>
 &nbsp; &nbsp;group? Do i have to run a &quot;copy&quot; command manually to get the new<br>
 &nbsp; &nbsp;node ready?<br>
 &nbsp; &nbsp;I&#39;ve also noticed that i have necessarily to umount gluster from<br>
 &nbsp; &nbsp;Xen. Is there a way to avoid stopping all the virtual machines,<br>
 &nbsp; &nbsp;umounting and mounting again? Is there a feature like &quot;refresh<br>
 &nbsp; &nbsp;config file&quot;?<br>
<br>
<br>
Hot add (&quot;refresh config file&quot;) is in the roadmap.<br>
&nbsp;<br>
<br>
<br>
 &nbsp; &nbsp;And finally... i looked into the logs to see why self-healing<br>
 &nbsp; &nbsp;wasn&#39;t working, and i found this on Xen&#39;s Side:<br>
<br>
 &nbsp; &nbsp;**********<br>
 &nbsp; &nbsp;2008-12-17 12:08:30 E [tcp-client.c:190:tcp_connect] espai6:<br>
 &nbsp; &nbsp;non-blocking connect() returned: 111 (Connection refused)<br>
 &nbsp; &nbsp;**********<br>
<br>
 &nbsp; &nbsp;and it keeps saying this when i want to access &nbsp;files which were<br>
 &nbsp; &nbsp;created in the &quot;old nodes&quot;.<br>
<br>
 &nbsp; &nbsp;is this a bug? how can i work around this?<br>
<br>
 &nbsp; &nbsp;If i create new stuff, though, it replicates to the 3 nodes, no<br>
 &nbsp; &nbsp;problem with that.... the only problem is with the old files that<br>
 &nbsp; &nbsp;were already present before i added the new node.<br>
<br>
 &nbsp; &nbsp;Thanks for your help in advance, and let me know if you need any<br>
 &nbsp; &nbsp;further information.<br>
<br>
<br>
<br>
<br>
 &nbsp; &nbsp;_______________________________________________<br>
 &nbsp; &nbsp;Gluster-devel mailing list<br></div></div>
 &nbsp; &nbsp;<a href="mailto:Gluster-devel@nongnu.org" target="_blank">Gluster-devel@nongnu.org</a> &lt;mailto:<a href="mailto:Gluster-devel@nongnu.org" target="_blank">Gluster-devel@nongnu.org</a>&gt;<div class="Ih2E3d"><br>
 &nbsp; &nbsp;<a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
<br>
<br>
<br>
<br>
-- <br>
Raghavendra G<br>
<br>
</div></blockquote>
<br>
hi, yes.<br>
<br>
when gluster behaves like this, all nodes are running. As i said, when you create new data, it replicates to all the nodes of each group, so it&#39;s working fine.<br>
However, it keeps logging &quot;connection refused&quot;, which i though was reported only when a node wasn&#39;t available, but they are all available and replicating data fine.<br>
<br>
The thing, though, is that old data is not beeing replicated into the new nodes?<br>
<br>
Is there any way to &quot;force&quot; replication to the new nodes? Could i be getting somehow the &quot;connection refused&quot; because new nodes won&#39;t accept previous data?<br>
<br>
Thanks for your help.<div><div></div><div class="Wj3C7c"><br>
<br>
<br>
_______________________________________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@nongnu.org" target="_blank">Gluster-devel@nongnu.org</a><br>
<a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
</div></div></blockquote></div><br><br clear="all"><br>-- <br>hard work often pays off after time, but laziness always pays off now<br>