<div dir="ltr">Did you tweak some options belonging to the performance translator, such as io-thread-count? If not, try to increase it to 64 from 16 (default).<br><div class="gmail_extra"><br><div class="gmail_quote">On Mon, Dec 8, 2014 at 12:10 PM, Andrew Smith <span dir="ltr">&lt;<a href="mailto:smith.andrew.james@gmail.com" target="_blank">smith.andrew.james@gmail.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><br>
QDR Infiniband has a max theoretical input of 40Gbits, or about 4GB/s.<br>
My LSI controller RAID controllers typically deliver about 0.5-1.0 GB/s<br>
for direct disk access.<br>
<br>
I have tested it many ways. I typically start jobs on many clients and<br>
measure the total network bandwidth on the servers by monitoring the<br>
totals in /proc/net/dev or just count the bytes on the clients. I can&rsquo;t<br>
get more than about 300MB/s from each server. With a single job on<br>
a single client, I can&rsquo;t get more than about 100-150MB/s.<br>
<div class="HOEnZb"><div class="h5"><br>
On Dec 7, 2014, at 9:15 PM, Franco Broi &lt;<a href="mailto:franco.broi@iongeo.com">franco.broi@iongeo.com</a>&gt; wrote:<br>
<br>
&gt;<br>
&gt; Our theoretical peak throughput is about 4Gbytes/sec or 4 x 10Gbits/Sec,<br>
&gt; you can see from the graph that the maximum recorded is 3.6GB/Sec. This<br>
&gt; was probably during periods of large sequential IO.<br>
&gt;<br>
&gt; We have a small cluster of clients (10) with 10Gbit ethernet but the<br>
&gt; majority of our machines (130) have gigabit. The throughput maximum for<br>
&gt; the 10Gbit connected machines was just over 3GBytes/Sec with individual<br>
&gt; machines recording about 800MB/Sec.<br>
&gt;<br>
&gt; We can easily saturate our 10Gbit links on the servers as each JBOD is<br>
&gt; capable of better than 500MB/Sec but with mixed sequential/random access<br>
&gt; it seems like a good compromise.<br>
&gt;<br>
&gt; We have another 2 server Gluster system with the same specs and we get<br>
&gt; 1.8GB/Sec reads and 1.1GB/Sec writes.<br>
&gt;<br>
&gt; What are you using to measure your throughput?<br>
&gt;<br>
&gt; On Sun, 2014-12-07 at 20:52 -0500, Andrew Smith wrote:<br>
&gt;&gt; I have a similar system with 4 nodes and 2 bricks per node, where<br>
&gt;&gt; each brick is a single large filesystem (4TB x 24 RAID 6). The<br>
&gt;&gt; computers are all on QDR Infinband with Gluster using IPOIB. I<br>
&gt;&gt; have a cluster of Infiniband clients that access the data on the<br>
&gt;&gt; servers. I can only get about 1.0 to 1.2 GB/s throughput with my<br>
&gt;&gt; system though. Can you tell us the peak throughput that you are<br>
&gt;&gt; getting. I just don&rsquo;t have a sense of what I should expect from<br>
&gt;&gt; my system. A similar Luster setup could achieve 2-3 GB/s, which<br>
&gt;&gt; I attributed to the fact that it didn&rsquo;t use IPOIB, but instead used<br>
&gt;&gt; RDMA. I&rsquo;d really like to know if I am wrong here and there is<br>
&gt;&gt; some configuration I can tweak to make things faster.<br>
&gt;&gt;<br>
&gt;&gt; Andy<br>
&gt;&gt;<br>
&gt;&gt; On Dec 7, 2014, at 8:43 PM, Franco Broi &lt;<a href="mailto:franco.broi@iongeo.com">franco.broi@iongeo.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt;&gt; On Fri, 2014-12-05 at 14:22 +0000, Kiebzak, Jason M. wrote:<br>
&gt;&gt;&gt;&gt; May I ask why you chose to go with 4 separate bricks per server rather than one large brick per server?<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; Each brick is a JBOD with 16 disks running RAIDZ2. Just seemed more<br>
&gt;&gt;&gt; logical to keep the bricks and ZFS filesystems confined to physical<br>
&gt;&gt;&gt; hardware units, ie I could disconnect a brick and move it to another<br>
&gt;&gt;&gt; server.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Thanks<br>
&gt;&gt;&gt;&gt; Jason<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; -----Original Message-----<br>
&gt;&gt;&gt;&gt; From: <a href="mailto:gluster-users-bounces@gluster.org">gluster-users-bounces@gluster.org</a> [mailto:<a href="mailto:gluster-users-bounces@gluster.org">gluster-users-bounces@gluster.org</a>] On Behalf Of Franco Broi<br>
&gt;&gt;&gt;&gt; Sent: Thursday, December 04, 2014 7:56 PM<br>
&gt;&gt;&gt;&gt; To: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
&gt;&gt;&gt;&gt; Subject: [Gluster-users] A year&#39;s worth of Gluster<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; 1 DHT volume comprising 16 50TB bricks spread across 4 servers. Each server has 10Gbit Ethernet.<br>
&gt;&gt;&gt;&gt;<br>
&gt;&gt;&gt;&gt; Each brick is a ZOL RADIZ2 pool with a single filesystem.<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt;<br>
&gt;&gt;&gt; _______________________________________________<br>
&gt;&gt;&gt; Gluster-users mailing list<br>
&gt;&gt;&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt;&gt;&gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
&gt;&gt;<br>
&gt;<br>
&gt;<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br><br clear="all"><div><br></div>-- <br><div class="gmail_signature">Nguyen Viet Cuong<br></div>
</div></div>