<div dir="rtl"><div dir="ltr">Hi.<br><br>I wanted to update with results from my tests.<br><br>So, up to full disk it worked fine, no memory leaks and equal size was reported on all the directories - export on both servers, and the mounted one on client.<br>

I didn&#39;t stop/start the cluster nodes - just let it run without any stop.<br><br>After it reached the full size of the cluster, things seem to break somewhat:<br><br>DF reports one size on client and on one of the servers, but another size on the another server:<br>

<br>client:<br>glusterfs              31G   29G  1.3G  96% /mnt/media<br><br>server 1:<br>/dev/hda4              31G   29G  1.3G  96% /media<br><br>server 2:<br>/dev/hda4              31G   18G   13G  60% /media<br><br>DU over mounted and exported directories reports same sizes on all the nodes:<br>
18G<br><br>So, because one of the servers reports that almost all space is taken while it&#39;s not true, the cluster has lost almost half of the available space. AFAIK GlusterFS always reports the free space provided by the first server indeed, but it completely incorrect here.<br>
<br>What is more interesting, that it always happens with the first server defined in client vol file. I switched the servers order this time just to verify it, and it happened on the server that become the first one.<br>
<br><br>There are no 0 size files this time though.<br><br><br>So, what should be my steps to help the devs to find this issue? I&#39;m currently leaving all running for some time to see how it develops further.<br><br>Regards.<br>

</div></div>