<div dir="ltr">Also, have you specified a block size for dd? The default (512 bytes) is too low for the number of context switches it generates in FUSE. Use a higher block size (64-128KB) and check the throughput.<div><br>
</div><div>Avati</div></div><div class="gmail_extra"><br><br><div class="gmail_quote">On Fri, Oct 25, 2013 at 7:53 AM, Joe Julian <span dir="ltr">&lt;<a href="mailto:joe@julianfamily.org" target="_blank">joe@julianfamily.org</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Have you brought this up with Red Hat Support? That &nbsp;is &nbsp;what you pay them for.<br>
<div class="im"><br>
<br>
<br>
Jung Young Seok &lt;<a href="mailto:jung.youngseok@gmail.com">jung.youngseok@gmail.com</a>&gt; wrote:<br>
&gt;I&#39;ve wrote below email. However it seems I missed mail key word rule on<br>
&gt;subject.<br>
&gt;So I&#39;m sending it again.<br>
&gt;Please check the below mail and any response will be helpful.<br>
&gt;Thanks,<br>
&gt;2013. 10. 25. ¿ÀÈÄ 6:01¿¡ &quot;Jung Young Seok&quot; &lt;<a href="mailto:jung.youngseok@gmail.com">jung.youngseok@gmail.com</a>&gt;´ÔÀÌ<br>
&gt;ÀÛ¼º:<br>
&gt;<br>
&gt;<br>
&gt;Dear GlusterFS Engineer,<br>
&gt;<br>
&gt;I have questions that my glusterfs server and fuse client<br>
&gt;perform properly on below specification.<br>
&gt;<br>
</div>&gt;It can write only *65MB*/s through FUSE client to 1 glusterfs server (1<br>
<div class="im">&gt;brick and no replica for 1 volume )<br>
&gt; - NW bandwidth are enough for now. I&#39;ve check it with iftop<br>
</div>&gt; - However it can write *120MB*/s when I mount nfs on the same volume.<br>
<div class="im">&gt;<br>
&gt;Could anyone check if the glusterfs and fuse client perform properly?<br>
&gt;<br>
&gt;<br>
&gt;Detail explanations are below.<br>
&gt;=======================================================================<br>
&gt;I&#39;ve set 4 glusterfs servers and 1 fuse client.<br>
&gt;Each spec is as followings.<br>
&gt;<br>
</div>&gt;*Server x 4*<br>
<div class="im">&gt; - CPU : Intel(R) Xeon(R) CPU E5-2609 0 @ 2.40GHz (2 cpu * 4 core)<br>
&gt; - Memory : 32GB<br>
&gt; - HDD (3TB 7.2K RPM SATA x 14 )<br>
&gt; &nbsp; * RAID6(33T)<br>
&gt; &nbsp; * XFS<br>
&gt; - OS : RHS 2.1<br>
&gt; - 4 Gluster Server will be used 2 replica x 2 distributed as 1 volume<br>
&gt; - NW 1G for replica<br>
&gt; - NW 1G for Storage and management<br>
<br>
</div>No need. The fuse client connects to all the servers. Replication happens from the client.<br>
<div class="im"><br>
&gt; - Current active profile: rhs-high-throughput<br>
&gt;<br>
</div>&gt;*FUSE Client (gluster 3.4)*<br>
<div class="im">&gt; - CPU : Intel(R) Xeon(R) CPU E5-2640 0 @ 2.50GHz<br>
&gt; - Memory : 32GB<br>
&gt; - OS : CentOS6.4<br>
&gt; - NW 2G for Storage (NIC bonding)<br>
&gt;<br>
&gt;All server will be in 10G network. (for now 1G network)<br>
&gt;<br>
&gt;<br>
&gt;I&#39;ve tested to check primitive disk performance.<br>
&gt; - on first glusterfs server<br>
&gt;* it can write 870MB/s (dd if=/dev/zero of=./dummy bs=4096 count=10000)<br>
&gt; &nbsp;* it can read 1GB/s &nbsp; (cat test_file.23 &gt; /dev/null )<br>
&gt; - on fuse client &nbsp;(mount volume : 1 brick(1dist, no-replica)<br>
&gt; &nbsp;* it can write 64.8MB/s<br>
&gt; - on nfs client (mount volume : 1 brick(1dist, no-replica)<br>
&gt; &nbsp;* it can write 120MB/s (it reached NW bandwith<br>
<br>
</div>My usual question here is how does dd represent your expected use case? Are you comparing apples to orchards?<br>
<div class="im"><br>
&gt;<br>
&gt;<br>
&gt;I wonder why fuse client much slower than nfs client. (it&#39;s no-replica peer)<br>
&gt;Is it normal performance?<br>
<br>
</div>I always max out my network connection with the fuse client, so no. It&#39;s not normal.<br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div><br></div>