Hi,<div><br></div><div>We are testing glusterfs. We have a setup like this:</div><div><br></div><div>Site A: 4 nodes, 2 bricks per node, 1 volume, distributed, replicated, replica count 2</div><div>Site B: 2 nodes, 2 bricks per node, 1 volume, distributed<br clear="all">
georeplication setup: master: site A, node 1. slave:site B, node 1, ssh</div><div><br></div><div>replicasets on Site A:</div><div>node 1, brick 1 + node 3, brick 1</div><div>node 2, brick 1 + node 4, brick 1</div><div>node 2, brick 2 + node 3, brick 2</div>
<div>node 1, brick 2 + node 4, brick 2</div><div><br></div><div>I monitor geo replication status with command:</div><div>watch -n 1 gluster volume geo-replication status</div><div><br></div><div>All is OK.</div><div><br></div>
<div>I stop glusterd service on node 3: I see geo replication status go to faulty</div><div>I start glusterd service on node 3: I see geo replication status go to OK, after some time</div><div><br></div><div>Question:</div>
<div>With the removal of node 3, members of 2 different replica sets go down, but the volume as a whole is healthy. Why does geo replication go to faulty in this testcase?</div><div><br>
</div><div>Fred</div>