<div class="gmail_quote"><div>Hi Avati,</div><div> </div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;"><div class="gmail_quote"><div class="im"><div></div></div><div>
Write performance in replicate is not only a throughput factor of disk and network, but also involves xattr performance. xattr performance is a function of the inode size in most of the disk filesystems. Can you give some more details about the backend filesystem, specifically the inode size with which it was formatted? If it was ext3 with the default 128byte inode, it is very likely you might be running out of in-inode xattr space (due to enabling marker-related features like geo-sync or quota?) and hitting data blocks. If so, please reformat with 512byte or 1KB inode size.</div>

<div><br></div><div>Also, what about read performance in replicate?</div></div></blockquote><div><br></div><div>Thanks for your insight on this issue, we are using ext3 for the gluster partition with CentOS 5 default inode size:</div>
<div><div><br></div><div>[root@vm-container-0-0 ~]# tune2fs -l /dev/sdb1 | grep Inode  </div><div>Inode count:              244219904</div><div>Inodes per group:         32768</div><div>Inode blocks per group:   1024</div>
<div>Inode size:               128</div></div><div><br></div><div>I&#39;ll reformat sdb1 with 512 bytes and recreate my gluster volumes with distribute/replicate and run my benchmark tests again. </div><div><br></div><div>
<br></div><div>   --joey</div><div><br></div><div></div></div><br><div><br></div>