<div dir="ltr">Hi Viktor,<div><br></div><div>Thanks for the tips.  I&#39;m a bit confused, since the clients mount the share fine, and &quot;gluster peer status&quot; and &quot;gluster volume status all detail&quot; are happy.</div>

<div><br></div><div>What is the expected output of &quot;rebalance status&quot; for just a fix-layout run?  I believe the last time I did that, the status was always 0s (which makes some sense, as files aren&#39;t moving) and the log was empty, but the operation seemed to complete successfully.  Does a file rebalance first require a fix-layout operation internally, and is it possible that my volume is still in that phase?  Or I making up an overly optimistic scenario?</div>

<div><br></div><div>Thanks,</div><div><br></div><div>Matt</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Thu, Feb 27, 2014 at 8:33 PM, Viktor Villafuerte <span dir="ltr">&lt;<a href="mailto:viktor.villafuerte@optusnet.com.au" target="_blank">viktor.villafuerte@optusnet.com.au</a>&gt;</span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi Matt,<br>
<br>
if the &#39;status&#39; says 0 for everything that&#39;s not good. Normally when I<br>
do rebalance the numbers should change (up). Also the rebalance log<br>
should show files being moved around.<br>
<br>
For the errors - my (limited) experience with Gluster is that the &#39;W&#39;<br>
are normally harmless and they show up quite a bit. For the actuall<br>
error &#39;E&#39; you could try to play with &#39;auth.allow&#39; as suggested here<br>
<br>
<a href="http://gluster.org/pipermail/gluster-users/2011-November/009094.html" target="_blank">http://gluster.org/pipermail/gluster-users/2011-November/009094.html</a><br>
<br>
<br>
Normally when rebalancing I do count of files on the bricks and the<br>
Gluster mount to make sure they eventually add up. Also I grep and count<br>
&#39;-T&#39; and see how the count goes down and &#39;rw&#39; count goes up.<br>
<span class="HOEnZb"><font color="#888888"><br>
v<br>
</font></span><div class="HOEnZb"><div class="h5"><br>
<br>
<br>
<br>
On Thu 27 Feb 2014 00:57:28, Matt Edwards wrote:<br>
&gt; Hopefully I&#39;m not derailing this thread too far, but I have a related<br>
&gt; rebalance progress/speed issue.<br>
&gt;<br>
&gt; I have a rebalance process started that&#39;s been running for 3-4 days.  Is<br>
&gt; there a good way to see if it&#39;s running successfully, or might this be a<br>
&gt; sign of some problem?<br>
&gt;<br>
&gt; This is on a 4-node distribute setup with v3.4.2 and 45T of data.<br>
&gt;<br>
&gt; The *-rebalance.log has been silent since some informational messages when<br>
&gt; the rebalance started.  There were a few initial warnings and errors that I<br>
&gt; observed, though:<br>
&gt;<br>
&gt;<br>
&gt; E [client-handshake.c:1397:client_setvolume_cbk] 0-cluster2-client-0:<br>
&gt; SETVOLUME on remote-host failed: Authentication failed<br>
&gt;<br>
&gt; W [client-handshake.c:1365:client_setvolume_cbk] 0-cluster2-client-4:<br>
&gt; failed to set the volume (Permission denied)<br>
&gt;<br>
&gt; W [client-handshake.c:1391:client_setvolume_cbk] 0-cluster2-client-4:<br>
&gt; failed to get &#39;process-uuid&#39; from reply dict<br>
&gt;<br>
&gt; W [socket.c:514:__socket_rwv] 0-cluster2-client-3: readv failed (No data<br>
&gt; available)<br>
&gt;<br>
&gt;<br>
&gt; &quot;gluster volume status&quot; reports that the rebalance is in progress, the<br>
&gt; process listed in vols/&lt;volname&gt;/rebalance/&lt;hash&gt;.pid is still running on<br>
&gt; the server, but &quot;gluster volume rebalance &lt;volname&gt; status&quot; reports 0 for<br>
&gt; everything (files scanned or rebalanced, failures, run time).<br>
&gt;<br>
&gt; Thanks,<br>
&gt;<br>
&gt; Matt<br>
&gt;<br>
&gt;<br>
&gt; On Thu, Feb 27, 2014 at 12:39 AM, Shylesh Kumar &lt;<a href="mailto:shmohan@redhat.com">shmohan@redhat.com</a>&gt; wrote:<br>
&gt;<br>
&gt; &gt; Hi Viktor,<br>
&gt; &gt;<br>
&gt; &gt; Lots of optimizations and improvements went in for 3.4 so it should be<br>
&gt; &gt; faster than 3.2.<br>
&gt; &gt; Just to make sure what&#39;s happening could you please check rebalance logs<br>
&gt; &gt; which will be in<br>
&gt; &gt; /var/log/glusterfs/&lt;volname&gt;-rebalance.log and check is there any<br>
&gt; &gt; progress ?<br>
&gt; &gt;<br>
&gt; &gt; Thanks,<br>
&gt; &gt; Shylesh<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; Viktor Villafuerte wrote:<br>
&gt; &gt;<br>
&gt; &gt;&gt; Anybody can confirm/dispute that this is normal/abnormal?<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; v<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt; On Tue 25 Feb 2014 15:21:40, Viktor Villafuerte wrote:<br>
&gt; &gt;&gt;<br>
&gt; &gt;&gt;&gt; Hi all,<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; I have distributed replicated set with 2 servers (replicas) and am<br>
&gt; &gt;&gt;&gt; trying to add another set of replicas: 1 x (1x1) =&gt; 2 x (1x1)<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; I have about 23G of data which I copy onto the first replica, check<br>
&gt; &gt;&gt;&gt; everything and then add the other set of replicas and eventually<br>
&gt; &gt;&gt;&gt; rebalance fix-layout, migrate-data.<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; Now on<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; Gluster v3.2.5 this took about 30 mins (to rebalance + migrate-data)<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; on<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; Gluster v3.4.2 this has been running for almost 4 hours and it&#39;s still<br>
&gt; &gt;&gt;&gt; not finished<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; As I may have to do this in production, where the amount of data is<br>
&gt; &gt;&gt;&gt; significantly larger than 23G, I&#39;m looking at about three weeks of wait<br>
&gt; &gt;&gt;&gt; to rebalance :)<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; Now my question is if this is as it&#39;s meant to be? I can see that v3.4.2<br>
&gt; &gt;&gt;&gt; gives me more info about the rebalance process etc, but that surely<br>
&gt; &gt;&gt;&gt; cannot justify the enormous time difference.<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; Is this normal/expected behaviour? If so I will have to stick with the<br>
&gt; &gt;&gt;&gt; v3.2.5 as it seems way quicker.<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; Please, let me know if there is any &#39;well known&#39; option/way/secret to<br>
&gt; &gt;&gt;&gt; speed the rebalance up on v3.4.2.<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; thanks<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; --<br>
&gt; &gt;&gt;&gt; Regards<br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;&gt; Viktor Villafuerte<br>
&gt; &gt;&gt;&gt; Optus Internet Engineering<br>
&gt; &gt;&gt;&gt; t: 02 808-25265<br>
&gt; &gt;&gt;&gt; _______________________________________________<br>
&gt; &gt;&gt;&gt; Gluster-users mailing list<br>
&gt; &gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt;&gt;&gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;&gt;&gt;<br>
&gt; &gt;&gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Gluster-users mailing list<br>
&gt; &gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; &gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt; &gt;<br>
<br>
--<br>
Regards<br>
<br>
Viktor Villafuerte<br>
Optus Internet Engineering<br>
t: 02 808-25265<br>
</div></div></blockquote></div><br></div>