<div dir="ltr"><div><div><div><div><div><div>Hi Franco,<br><br></div>If a file is under migration, and a rebalance stop is encountered, then rebalance process exits only after the completion of the migration.<br></div></div>
That might be one of the reasons why you saw rebalance in progress message while trying to add the brick<br><br>Could you please share the average file size in your setup?<br><br></div>You could always check the rebalance status command to ensure rebalance has indeed completed/stopped before proceeding with the add-brick. Using add-brick force while rebalance is on-going should not be used in normal scenarios. I do see that in your case, they show stopped/completed. Glusterd logs would help in triaging the issue.<br>
<br></div>Rebalance re-writes layouts, and migrates data. While this is happening, if a add-brick is done, then the cluster might go into a imbalanced stated. Hence, the check if rebalance is in progress while doing add-brick<br>
<br></div>With regards,<br>Shishir<br></div><div class="gmail_extra"><br><br><div class="gmail_quote">On 10 December 2013 10:39, Franco Broi <span dir="ltr">&lt;<a href="mailto:franco.broi@iongeo.com" target="_blank">franco.broi@iongeo.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
Before attempting a rebalance on my existing distributed Gluster volume<br>
I thought I&#39;d do some testing with my new storage. I created a volume<br>
consisting of 4 bricks on the same server and wrote some data to it. I<br>
then added a new brick from a another server. I ran the fix-layout and<br>
wrote some new files and could see them on the new brick. All good so<br>
far, so I started the data rebalance. After it had been running for a<br>
while I wanted to add another brick, which I obviously couldn&#39;t do while<br>
it was running so I stopped it. Even with it stopped It wouldn&#39;t let me<br>
add a brick so I tried restarting it, but it wouldn&#39;t let me do that<br>
either. I presume you just reissue the start command as there&#39;s no<br>
restart?<br>
<br>
[root@nas3 ~]# gluster vol rebalance test-volume status<br>
                                    Node Rebalanced-files          size       scanned      failures       skipped         status run time in secs<br>
---------      -----------   -----------   -----------   -----------   -----------   ------------   --------------<br>
localhost                7       611.7GB          1358             0            10        stopped          4929.00<br>
localhost                7       611.7GB          1358             0            10        stopped          4929.00<br>
 nas4-10g                0        0Bytes          1506             0             0      completed             8.00<br>
volume rebalance: test-volume: success:<br>
[root@nas3 ~]# gluster vol add-brick test-volume nas4-10g:/data14/gvol<br>
volume add-brick: failed: Volume name test-volume rebalance is in progress. Please retry after completion<br>
[root@nas3 ~]# gluster vol rebalance test-volume start<br>
volume rebalance: test-volume: failed: Rebalance on test-volume is already started<br>
<br>
In the end I used the force option to make it start but was that the<br>
right thing to do?<br>
<br>
glusterfs 3.4.1 built on Oct 28 2013 11:01:59<br>
Volume Name: test-volume<br>
Type: Distribute<br>
Volume ID: 56ee0173-aed1-4be6-a809-ee0544f9e066<br>
Status: Started<br>
Number of Bricks: 5<br>
Transport-type: tcp<br>
Bricks:<br>
Brick1: nas3-10g:/data9/gvol<br>
Brick2: nas3-10g:/data10/gvol<br>
Brick3: nas3-10g:/data11/gvol<br>
Brick4: nas3-10g:/data12/gvol<br>
Brick5: nas4-10g:/data13/gvol<br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>