<div dir="ltr"><div><span style="font-family:arial,sans-serif">&gt; I think you can easily check by this command (on old gluster server):</span><br style="font-family:arial,sans-serif"><span style="font-family:arial,sans-serif">find .glusterfs/ -type f -links 1</span><br style="font-family:arial,sans-serif">


<span style="font-family:arial,sans-serif">If something returns that means file have only one link and doesn&#39;t have</span><br style="font-family:arial,sans-serif"><span style="font-family:arial,sans-serif">a &quot;real&quot; file on the brick so it unintended (and it&#39;s orphan file).</span><span style="font-family:arial,sans-serif"><br>


</span></div><div><br></div><div><font face="arial, sans-serif">The result of  # find .glusterfs/ -type f -links 1 is empty ... </font></div><span style="font-family:arial,sans-serif"><div><span style="font-family:arial,sans-serif"><br>


</span></div>&gt; I am not sure what for you want to restart the replace-brick command?</span><br style="font-family:arial,sans-serif"><span style="font-family:arial,sans-serif">You wrote that status show: migration complete... So it&#39;s ok and do just</span><br style="font-family:arial,sans-serif">


<span style="font-family:arial,sans-serif">commit (first ensure is everything is OK).</span><br><div><span style="font-family:arial,sans-serif"><br></span></div><div><span style="font-family:arial,sans-serif">Before commit the replace, i erased all files on the new node, thinking that&#39;s not ok... :(</span></div>


<div><span style="font-family:arial,sans-serif">I thinked that add these 2 new bricks in the same volume with replica 4, and use self-heal to replicate all data... what you think ?</span></div><div><span style="font-family:arial,sans-serif"><br>

</span></div><div><font face="arial, sans-serif">Tks!</font></div><div class="gmail_extra"><br><div class="gmail_quote">2013/12/18 Mariusz Sobisiak <span dir="ltr">&lt;<a href="mailto:MSobisiak@ydp.pl" target="_blank">MSobisiak@ydp.pl</a>&gt;</span><br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
<div>&gt; I don&#39;t knew that can be a lot of trash (orphan) files in .glusterfs,<br>
so here what i do:<br>
<br>
</div>I think you can easily check by this command (on old gluster server):<br>
find .glusterfs/ -type f -links 1<br>
If something returns that means file have only one link and doesn&#39;t have<br>
a &quot;real&quot; file on the brick so it unintended (and it&#39;s orphan file).<br>
<div><br>
&gt; # du -hs *<br>
&gt; 3.5G documents<br>
&gt; 341G home<br>
&gt; 58G archives<br>
&gt; 808G secure_folder<br>
&gt; 93G secure_folder2<br>
<br>
</div>So you have files on new gluster. I understood that you have just<br>
.glusterfs directory...<br>
<br>
&gt; 1.3T .glusterfs/<br>
<br>
It looks OK. It&#39;s not taking any space because it&#39;s hardlinks.<br>
<div><br>
&gt; So, i have 1.3Tb in gluster!! So, i think that replace-brick worked<br>
correctly ... right ?<br>
<br>
</div>Probably yes.<br>
<div><br>
&gt; So, how can i restart the replace-brick command again ?<br>
<br>
</div>I am not sure what for you want to restart the replace-brick command?<br>
You wrote that status show: migration complete... So it&#39;s ok and do just<br>
commit (first ensure is everything is OK).<br>
<br>
If you&#39;re not sure if all files had copied maybe you can compare files<br>
on both nodes (old one and migrated) like this:<br>
find /where/the/brick/is/ -path &quot;*/.glusterfs/*&quot; -prune -o -name &#39;*&#39;<br>
-print|wc -l<br>
If the command return the same values that mean you have all files :D<br>
<br>
But In my opinion everything looks okay (except that why so many files<br>
are orphaned on old glusterfs).<br>
<div><div><br>
--<br>
Mariusz<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div></div>