<font><font face="verdana,sans-serif">This sounds similar, tho not identical to a problem that I had recently (descriibed here:</font></font><div><font><font face="verdana,sans-serif">&lt;<a href="http://gluster.org/pipermail/gluster-users/2012-August/011054.html">http://gluster.org/pipermail/gluster-users/2012-August/011054.html</a>&gt;</font></font></div>
<div><font><font face="verdana,sans-serif">My problems resulted were teh result of starting this kind of rebalance with a server node appearing to be connected (via the &#39;gluster peer status&#39; output, but not  actually being connected as shown by the </font></font></div>
<div><font><font face="verdana,sans-serif">&#39;gluster volume status all detail&#39; output.  Note especially the part that describes its online state.</font></font></div><div><font><font face="verdana,sans-serif"><br></font></font></div>
<div><font><font face="verdana,sans-serif"><div>------------------------------------------------------------------------------</div><div>Brick                : Brick pbs3ib:/bducgl</div><div>Port                 : 24018</div>
<div>Online               : N                   &lt;&lt;=====================</div><div>Pid                  : 20953</div><div>File System          : xfs</div><div><br></div></font></font></div><div><font><font face="verdana,sans-serif"><br>
</font></font></div><div><font><font face="verdana,sans-serif">You may have already verified this, but what I did was to start a rebalance / fix-layout with a disconnected brick and it went ahead and tried to do it, unsuccessfully as you might guess..  But when I finally was able to reconnect the downed brick, and restart the rebalance, it (astonishingly) was able to bring everything back.  So props to the gluster team.</font></font></div>
<div><font><font face="verdana,sans-serif"><br></font></font></div><div><font><font face="verdana,sans-serif">hjm</font></font></div><div><font><font face="verdana,sans-serif"><br></font></font><br><div class="gmail_quote">
On Wed, Aug 8, 2012 at 11:58 AM, Dan Bretherton <span dir="ltr">&lt;<a href="mailto:d.a.bretherton@reading.ac.uk" target="_blank">d.a.bretherton@reading.ac.uk</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Hello All-<br>
I have noticed another problem after upgrading to version 3.3.  I am unable to do &quot;gluster volume rebalance &lt;VOLUME&gt; fix-layout status&quot; or &quot;...fix-layout ... stop&quot; after starting a rebalance operation with &quot;gluster volume rebalance &lt;VOLUME&gt; fix-layout start&quot;.   The fix-layout operation seemed to be progressing normally on all the servers according to the log files, but all attempts to do &quot;status&quot; or &quot;stop&quot; result in the CLI usage message being returned.  The only reference to the rebalance commands in the log files were these, which all the servers seem to have one or more of.<br>

<br>
[root@romulus glusterfs]# grep rebalance *.log<br>
etc-glusterfs-glusterd.vol.<u></u>log:[2012-08-08 12:49:04.870709] W [socket.c:1512:__socket_proto_<u></u>state_machine] 0-management: reading from socket failed. Error (Transport endpoint is not connected), peer (/var/lib/glusterd/vols/<u></u>tracks/rebalance/cb21050d-<u></u>05c2-42b3-8660-230954bab324.<u></u>sock)<br>

tracks-rebalance.log:[2012-08-<u></u>06 10:41:18.550241] I [graph.c:241:gf_add_cmdline_<u></u>options] 0-tracks-dht: adding option &#39;rebalance-cmd&#39; for volume &#39;tracks-dht&#39; with value &#39;4&#39;<br>
<br>
The volume name is &quot;tracks&quot; by the way.  I wanted to stop the rebalance operation because it seemed to be causing a very high load on some of the servers had been running for several days.  I ended up having to manually kill the rebalance processes on all the servers followed by restarting glusterd.<br>

<br>
After that I found that one of the servers had &quot;rebalance_status=4&quot; in file /var/lib/glusterd/vols/tracks/<a href="http://node_state.info" target="_blank"><u></u>node_state.info</a>, whereas all the others had &quot;rebalance_status=0&quot;.  I manually changed the &#39;4&#39; to &#39;0&#39; and restarted glusterd.  I don&#39;t know if this was a consequence of the way I had killed the rebalance operation or the cause of the strange behaviour.  I don&#39;t really want to start another rebalance going to test because the last one was so disruptive.<br>

<br>
Has anyone else experienced this problem since upgrading to 3.3?<br>
<br>
Regards,<br>
Dan.<br>
<br>
______________________________<u></u>_________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/<u></u>mailman/listinfo/gluster-users</a><br>
</blockquote></div><br><br clear="all"><div><br></div>-- <br>Harry Mangalam - Research Computing, OIT, Rm 225 MSTB, UC Irvine<br>[m/c 2225] / 92697 Google Voice Multiplexer: (949) 478-4487<br>415 South Circle View Dr, Irvine, CA, 92697 [shipping]<br>
MSTB Lat/Long: (33.642025,-117.844414) (paste into Google Maps)<br><br>
</div>