Daniel,<div> Can you confirm if you backend filesystem is proper? Can you delete the file from the backend? Gluster does not return EROFS in any of the cases you described. Also, try setting a lower ping-timeout and see if it helps in case of crosscable failover test.</div>
<div><br></div><div>Avati<br><br><div class="gmail_quote">On Tue, Jun 14, 2011 at 12:58 PM, Daniel Manser <span dir="ltr">&lt;<a href="mailto:daniel@clienta.ch">daniel@clienta.ch</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">
Hi Whit,<br>
<br>
Thanks for your reply.<div class="im"><br>
<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
I do know that it&#39;s not the Gluster-standard thing to use a crossover link.<br>
(Seems to me it&#39;s the obvious best way to do it, but it&#39;s not a<br>
configuration they&#39;re committed to.) It&#39;s possible that if you were doing<br>
your replication over the LAN rather than the crossover that Gluster would<br>
handle a disconnected system better. Might be worth testing.<br>
</blockquote>
<br></div>
It is still the same, even if no crossover cable is used and all traffic goes through an ethernet switch. The client can&#39;t write to the gluster volume anymore. I discovered that the NFS volume seems to be read-only in this state:<br>

<br>
  client01:~# rm debian-6.0.1a-i386-DVD-1.iso<br>
  rm: cannot remove `debian-6.0.1a-i386-DVD-1.iso&#39;: Read-only file system<br>
<br>
So all traffic goes through one interface (NFS to the client, glusterfs replication, corosync).<br>
<br>
I can reproduce the issue with the NFS client on VMware ESXi and with the NFS client on my Linux desktop.<br>
<br>
My config:<br>
<br>
  Volume Name: vmware<br>
  Type: Replicate<br>
  Status: Started<br>
  Number of Bricks: 2<br>
  Transport-type: tcp<br>
  Bricks:<br>
  Brick1: gluster1:/mnt/gvolumes/vmware<br>
  Brick2: gluster2:/mnt/gvolumes/vmware<br>
<br>
Regards,<br><font color="#888888">
Daniel</font><div><div></div><div class="h5"><br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org" target="_blank">Gluster-users@gluster.org</a><br>
<a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>