Hi Jordi,<br><br>Have you started glusterfsd on each of the newly added nodes? If not, please start them.<br><br>some comments have been inlined.<br><br><div class="gmail_quote">On Wed, Dec 17, 2008 at 3:28 PM, Jordi Moles Blanco <span dir="ltr">&lt;<a href="mailto:jordi@cdmon.com">jordi@cdmon.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">Hi,<br>
<br>
i&#39;ve got 6 nodes providing a storage unit with gluster 2.5 patch 800. They are set in 2 groups of 3 nodes each.<br>
<br>
On top of that, i&#39;ve got a Xen 3.2 machine storing its virtual machines in gluster mount point.<br>
<br>
The thing is that i used to have only 2 nodes for group, that&#39;s 4 nodes in total, and today I&#39;m trying to add 1 extra node for each group.<br>
<br>
This is the final setting on Xen&#39;s Side:<br>
<br>
<br>
**************<br>
<br>
volume espai1<br>
 &nbsp; &nbsp; &nbsp; type protocol/client<br>
 &nbsp; &nbsp; &nbsp; option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; option remote-host 10.0.0.3<br>
 &nbsp; &nbsp; &nbsp; option remote-subvolume espai<br>
end-volume<br>
<br>
volume espai2<br>
 &nbsp; &nbsp; &nbsp; type protocol/client<br>
 &nbsp; &nbsp; &nbsp; option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; option remote-host 10.0.0.4<br>
 &nbsp; &nbsp; &nbsp; option remote-subvolume espai<br>
end-volume<br>
<br>
volume espai3<br>
 &nbsp; &nbsp; &nbsp; type protocol/client<br>
 &nbsp; &nbsp; &nbsp; option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; option remote-host 10.0.0.5<br>
 &nbsp; &nbsp; &nbsp; option remote-subvolume espai<br>
end-volume<br>
<br>
volume espai4<br>
 &nbsp; type protocol/client<br>
 &nbsp; option transport-type tcp/client<br>
 &nbsp; option remote-host 10.0.0.6<br>
 &nbsp; option remote-subvolume espai<br>
end-volume<br>
<br>
volume espai5<br>
 &nbsp; type protocol/client<br>
 &nbsp; option transport-type tcp/client<br>
 &nbsp; option remote-host 10.0.0.7<br>
 &nbsp; option remote-subvolume espai<br>
end-volume<br>
<br>
volume espai6<br>
 &nbsp; type protocol/client<br>
 &nbsp; option transport-type tcp/client<br>
 &nbsp; option remote-host 10.0.0.8<br>
 &nbsp; option remote-subvolume espai<br>
end-volume<br>
<br>
volume namespace1<br>
 &nbsp; &nbsp; &nbsp; type protocol/client<br>
 &nbsp; &nbsp; &nbsp; option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; option remote-host 10.0.0.4<br>
 &nbsp; &nbsp; &nbsp; option remote-subvolume nm<br>
end-volume<br>
<br>
volume namespace2<br>
 &nbsp; &nbsp; &nbsp; type protocol/client<br>
 &nbsp; &nbsp; &nbsp; option transport-type tcp/client<br>
 &nbsp; &nbsp; &nbsp; option remote-host 10.0.0.5<br>
 &nbsp; &nbsp; &nbsp; option remote-subvolume nm<br>
end-volume<br>
<br>
volume grup1<br>
 &nbsp; &nbsp; &nbsp; type cluster/afr<br>
 &nbsp; &nbsp; &nbsp; subvolumes espai1 espai3 espai5<br>
end-volume<br>
<br>
volume grup2<br>
 &nbsp; &nbsp; &nbsp; type cluster/afr<br>
 &nbsp; &nbsp; &nbsp; subvolumes espai2 espai4 espai6<br>
end-volume<br>
<br>
volume nm<br>
 &nbsp; &nbsp; &nbsp; type cluster/afr<br>
 &nbsp; &nbsp; &nbsp; subvolumes namespace1 namespace2<br>
end-volume<br>
<br>
volume g01<br>
 &nbsp; &nbsp; &nbsp; type cluster/unify<br>
 &nbsp; &nbsp; &nbsp; subvolumes grup1 grup2<br>
 &nbsp; &nbsp; &nbsp; option scheduler rr<br>
 &nbsp; &nbsp; &nbsp; option namespace nm<br>
end-volume<br>
<br>
volume io-cache<br>
 &nbsp; &nbsp; &nbsp; type performance/io-cache<br>
 &nbsp; &nbsp; &nbsp; option cache-size 512MB<br>
 &nbsp; &nbsp; &nbsp; option page-size 1MB<br>
 &nbsp; &nbsp; &nbsp; option force-revalidate-timeout 2<br>
 &nbsp; &nbsp; &nbsp; subvolumes g01<br>
end-volume &nbsp;<br>
<br>
**************<br>
<br>
so... i stopped all virtual machines, unmounted gluster on Xen, updated the spec file (the one above) and ran gluster again in Xen.<br>
<br>
I&#39;ve set different gluster environments but i had never tried this, and now i&#39;m facing some problems.<br>
<br>
For what i had read before this... i used to think that when adding and extra node to a group and &quot;remounting&quot; on client&#39;s side, the Healing feature would copy all the content of the other nodes already present in the group to the &quot;new one&quot;. That hasn&#39;t happened, even when I&#39;ve tried to force the file system, by listing the files or doing what you suggest in you documentation:<br>

<br>
**********<br>
<br>
find /mnt/glusterfs -type f -print0 | xargs -0 head -c1 &gt;/dev/null<br>
<br>
**********<br>
<br>
so... my first question would be... does &quot;self-healing&quot; work this way? If it doesn&#39;t.... which is the best way to add a node to a group? Do i have to run a &quot;copy&quot; command manually to get the new node ready?<br>

I&#39;ve also noticed that i have necessarily to umount gluster from Xen. Is there a way to avoid stopping all the virtual machines, umounting and mounting again? Is there a feature like &quot;refresh config file&quot;?</blockquote>
<div><br>Hot add (&quot;refresh config file&quot;) is in the roadmap.<br>&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>
<br>
And finally... i looked into the logs to see why self-healing wasn&#39;t working, and i found this on Xen&#39;s Side:<br>
<br>
**********<br>
2008-12-17 12:08:30 E [tcp-client.c:190:tcp_connect] espai6: non-blocking connect() returned: 111 (Connection refused)<br>
**********<br>
<br>
and it keeps saying this when i want to access &nbsp;files which were created in the &quot;old nodes&quot;.<br>
<br>
is this a bug? how can i work around this?<br>
<br>
If i create new stuff, though, it replicates to the 3 nodes, no problem with that.... the only problem is with the old files that were already present before i added the new node.<br>
<br>
Thanks for your help in advance, and let me know if you need any further information.<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@nongnu.org" target="_blank">Gluster-devel@nongnu.org</a><br>
<a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
</blockquote></div><br><br clear="all"><br>-- <br>Raghavendra G<br><br>