Hi,<br>&nbsp;&nbsp; I have make some tests. <br><br><div style="margin-left: 40px;">1. AFR is up (<b>namespace and data brick between Server1 and Server2 have AFR</b>)<br>
2. touch file f1<br>
3. Server1 crashes<b> (remove data and namespace in Server1  )</b><br>&nbsp;&nbsp;&nbsp; <br>
4. ls on mount point, f1 exists and everything is normal (ls read from&nbsp;&nbsp;&nbsp; Server2)<br>
5. gclusterfsd start on Server1<br>
6. ls on mount point does not show f1 anymore (ls read only from brick1?)<br>
7. cat f1 on client, and content of it can be seen, but ls can not work well.<br><br>GlusterFS version 1.3.9 release<br><br><br><br><div style="text-align: left;"><font size="4"><b>Server1 spec vol:</b></font><br></div><br>
volume brick<br>&nbsp; type storage/posix&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&nbsp; option directory /mnt/glusterfs/brick00&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>end-volume<br><br>volume ns<br>&nbsp; type storage/posix&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&nbsp; option directory /mnt/glusterfs/ns&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
end-volume<br><br>volume server<br>&nbsp; type protocol/server<br>&nbsp; option transport-type tcp/server&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&nbsp; option ib-verbs-work-request-send-size&nbsp; 131072<br>&nbsp; option ib-verbs-work-request-send-count 64<br>&nbsp; option ib-verbs-work-request-recv-size&nbsp; 131072<br>
&nbsp; option ib-verbs-work-request-recv-count 64<br>&nbsp; option auth.ip.brick.allow *&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&nbsp; option auth.ip.ns.allow *&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>&nbsp; subvolumes brick ns<br>end-volume<br><br><b>Server2 spec vol:</b><br><br>volume remote-ns<br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; type protocol/client<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; option transport-type tcp/client<br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; option remote-host <b>[server1 ip]</b><br>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; option remote-subvolume ns<br>end-volume<br><br>volume local-ns<br>&nbsp; type storage/posix&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&nbsp; option directory /mnt/glusterfs/ns&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>end-volume<br><br>volume ns<br>&nbsp;type cluster/afr<br>&nbsp;subvolumes remote-ns local-ns<br>end-volume<br><br>volume remote-brick00<br>&nbsp; type protocol/client<br>&nbsp; option transport-type tcp/client<br>
&nbsp; option remote-host <a href="http://172.16.208.20">172.16.208.20</a><br>&nbsp; option remote-port 6996<br>&nbsp; option remote-subvolume brick<br>end-volume<br><br><br>volume local-brick00<br>&nbsp; type storage/posix&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; <br>
&nbsp; option directory /mnt/glusterfs/brick00 <br>end-volume<br><br>volume brick00<br>&nbsp;type cluster/afr<br>&nbsp;subvolumes remote-brick00 local-brick00<br>end-volume<br><br>volume unify<br>&nbsp; type cluster/unify<br>&nbsp; option namespace ns<br>
&nbsp; option scheduler rr<br>&nbsp; subvolumes brick00<br>end-volume<br></div><br>BTW, I&#39;m not very clear about what arnulf said, but in my may, this problem can be seen.<br><br><br>Baggio<br><br><br><div class="gmail_quote">2008/7/4 Krishna Srinivas &lt;<a href="mailto:krishna@zresearch.com" target="_blank">krishna@zresearch.com</a>&gt;:<br>

<blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<div>&gt;&gt;&gt; 1. AFR is up<br>
&gt;&gt;&gt; 2. touch file f1<br>
&gt;&gt;&gt; 3. brick1 crashes<br>
&gt;&gt;&gt; 4. ls on mount point, f1 exists and everything is normal (ls read from<br>
&gt;&gt;&gt; brick2)<br>
&gt;&gt;&gt; 5. file system repair removes f1 from brick1<br>
<br>
</div>Glusterfs removes f1 from brick1? Or do you manually remove it?<br>
Could you also check with a later release. As a related bug was<br>
fixed.<br>
<br>
Thanks<br>
<div><br>
&gt;&gt;&gt; 6. gclusterfsd start on brick1<br>
&gt;&gt;&gt; 7. ls on mount point does not show f1 anymore (ls read only from brick1?)<br>
&gt;&gt;&gt; 8. cat f1 on mount point replicates file and it becomes visible<br>
<br>
<br>
<br>
</div><div><div></div><div>On Fri, Jul 4, 2008 at 7:03 AM, baggio liu &lt;<a href="mailto:baggioss@gmail.com" target="_blank">baggioss@gmail.com</a>&gt; wrote:<br>
&gt; Hi,<br>
&gt; &nbsp; &nbsp;A file can&#39;t &quot;ls &quot; ,but can &quot;less &quot;.<br>
&gt; &nbsp; &nbsp;I think this action is a little weird. If this action can not be<br>
&gt; supp<br>
</div></div></blockquote></div><br>