<html><head><meta http-equiv="Content-Type" content="text/html charset=utf-8"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space;">Yep, this bug report is exactly what I’ve experienced. Same steps to reproduce. Yes, I made sure to allow the “remove-brick status” to report as complete before committing.<div><br></div><div><blockquote type="cite"><pre class="bz_comment_text
                 bz_wrap_comment_text">It's just allowing the migration of files TO the decommissioned subvolume.</pre></blockquote><div><br></div><div apple-content-edited="true">This is exactly the behavior I saw.

</div><div apple-content-edited="true"><br></div><div apple-content-edited="true">Let me know if there’s anything else I can provide!</div><div apple-content-edited="true"><br></div><div apple-content-edited="true">- brian</div><div apple-content-edited="true"><br></div>
<br><div><div>On Oct 30, 2013, at 11:46 AM, Lukáš Bezdička &lt;<a href="mailto:lukas.bezdicka@gooddata.com">lukas.bezdicka@gooddata.com</a>&gt; wrote:</div><br class="Apple-interchange-newline"><blockquote type="cite"><div dir="ltr">remove-brick on distribute does not work for me:<br><a href="https://bugzilla.redhat.com/show_bug.cgi?id=1024369">https://bugzilla.redhat.com/show_bug.cgi?id=1024369</a><br></div><div class="gmail_extra"><br>
<br><div class="gmail_quote">On Wed, Oct 30, 2013 at 4:40 PM, Brian Cipriano <span dir="ltr">&lt;<a href="mailto:bcipriano@zerovfx.com" target="_blank">bcipriano@zerovfx.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div style="word-wrap:break-word">I had the exact same experience recently with a 3.4 distributed cluster I set up. I spent some time on the IRC but couldn’t track it down. Seems remove-brick is broken in 3.3 and 3.4. I guess folks don’t remove bricks very often :)<span class="HOEnZb"><font color="#888888">
<br></font></span><div><span class="HOEnZb"><font color="#888888">- brian</font></span><div><div class="h5"><br><div><br><br><br>

</div>
<br><div><div>On Oct 30, 2013, at 11:21 AM, Lalatendu Mohanty &lt;<a href="mailto:lmohanty@redhat.com" target="_blank">lmohanty@redhat.com</a>&gt; wrote:</div><br><blockquote type="cite">
  
    
  
  <div bgcolor="#FFFFFF" text="#000000">
    <div>On 10/30/2013 08:40 PM, Lalatendu
      Mohanty wrote:<br>
    </div>
    <blockquote type="cite">
      
      <div>On 10/30/2013 03:43 PM, B.K.Raghuram
        wrote:<br>
      </div>
      <blockquote type="cite">
        <pre>I have gluster 3.4.1 on 4 boxes with hostnames n9, n10, n11, n12. I
did the following sequence of steps and ended up with losing data so
what did I do wrong?!

- Create a distributed volume with bricks on n9 and n10
- Started the volume
- NFS mounted the volume and created 100 files on it. Found that n9
had 45, n10 had 55
- Added a brick n11 to this volume
- Removed a brick n10 from the volume with gluster remove brick &lt;vol&gt;
&lt;n10 brick name&gt; start
- n9 now has 45 files, n10 has 55 files and n11 has 45 files(all the
same as on n9)
- Checked status, it shows that no rebalanced files but that n10 had
scanned 100 files and completed. 0 scanned for all the others
- I then did a rebalance start force on the vol and found that n9 had
0 files, n10 had 55 files and n11 had 45 files - weird - looked like
n9 had been removed but double checked again and found that n10 had
indeed been removed.
- did a remove-brick commit. Now same file distribution after that.
volume info now shows the volume to have n9 and n11 and bricks.
- did a rebalance start again on the volume. The rebalance-status now
shows n11 had 45 rebalanced files, all the brick nodes had 45 files
scanned and all show complete. The file layout after this is n9 has 45
files and n10 has 55 files. n11 has 0 files!
- An ls on the nfs mount now shows only 45 files so the other 55 not
visible because they are on n10 which is not part of the volume!

What have I done wrong in this sequence?
_______________________________________________
Gluster-users mailing list
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a>
</pre>
      </blockquote>
      <code><br>
        I think running rebalnce (force) in between "remove brick start"
        and "remove brick commit" is the issue. Can you please paste
        your command as per the time line of events. That would make it
        more clear. <br>
        <br>
        Below are the steps, I do to replace a brick and it works for
        me. <br>
        <br>
      </code>
      <ol>
        <li><code>gluster volume add-brick <em><code>VOLNAME NEW-BRICK</code></em></code></li>
        <li><code>gluster volume remove-brick <code>VOLNAME</code><em><code>
                BRICK</code></em></code> <code>start</code></li>
        <li><code>gluster volume remove-brick <code>VOLNAME</code><em><code>
                BRICK</code></em></code><code> status</code></li>
        <li><code>gluster volume remove-brick <code>VOLNAME <i>BRICK</i></code> commit</code></li>
      </ol>
    </blockquote>
    I will also suggest you to use distribute-replicate volumes, so that
    you have a replica copy always and it reduces the probability of
    losing data.<br>
    <br>
    -Lala <br>
    <br>
  </div>

_______________________________________________<br>Gluster-users mailing list<br><a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></blockquote>
</div><br></div></div></div></div><br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br></blockquote></div><br></div>
</blockquote></div><br></div></body></html>