Replies inline.<br><br><div class="gmail_quote"><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>
1) when a drive is failing and one of the AFR servers is dealing with<br>
IO errors, the other one freaks out and sometimes crashes, but<br>
doesn&#39;t seem to ever network timeout.<br>
</blockquote><div><br>This was same issue as (4)<br></div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>
2) when starting gluster on the server with the new empty drive, it<br>
gave me a bunch of errors about things being out of sync and to<br>
delete a file from all but the preferred server.<br>
this struck me as odd, since the thing was empty.<br>
so I used the favorite child, but this isn&#39;t a preferred solution long term.<br>
</blockquote><div><br>Sure, this should not happen.. Not yet fixed. Will be looking at it today.<br>&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
<br>
3) one of the directories had 20GB of data in it.... I went to do an<br>
ls of the directory and had to wait while it auto-healed all the<br>
files.. &nbsp;while this is helpful, it would be nice to have gotten back<br>
the directory listing without having to wait for 20GB of data to get<br>
sent over the network.<br>
</blockquote><div><br>Currently this behavior is not going to be changed (at least til 1.4.0), because, this can happen only if it is self-healing. And it will make sure things are ok when accessed first time. As it works fine now, we don&#39;t want to do a code change upto making a stable release.<br>
&nbsp;</div><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;"><br>
4) while the other server was down, the up server kept failing..<br>
signal 11? &nbsp;and I had to constantly remount the filesystem. &nbsp;It was<br>
giving me messages about the other node being down which was fine but<br>
then it&#39;d just die after a while.. consistently.<br>
</blockquote><div><br>This is fixed in tla, we have made a qa release to internal team, once passes basic tests, will be making next &#39;RC&#39; release.<br><br>Regards,<br>Amar <br></div></div><br>