It gets even worse<br>I like round robin mode and actually some intelligent enterprise grade switches can handle it well but they all have conditions.<br>I'm going to use Avaya as an example because I've diagnosed one of the issues with an Avaya switch recently.<br><br>It is supported with Simple MLT (multi link trunk or ether channel to Cisco) but when you do somethin fancy like an SLT (split link trunk) which is the same thing but split across two switchs fragments the frames and causes massive issues. In addition it doesn't work properly with UDP or multicast traffic because the switch can't figure out how to reassemble the packets in the right order. In addition it increases the CPU utilization on the switch. Finally its only on the sending policy on the host not the switch. I have heard you can get a special firmware from Avaya to support as a sending policy on the switch but Avaya doesn't like to give it out because it causes too many issues that most of their customers don't fully appreciate before trying to use it.<br><br>Now something I can advise is to use a load balancer in front with a VIP to further distribute your NFS clients across the nodes.<br><br><span style="font-family:Prelude, Verdana, san-serif;"><br><br></span><span id="signature"><div style="font-family: arial, sans-serif; font-size: 12px;color: #999999;">-- Sent from my HP Pre3</div><br></span><span style="color:navy; font-family:Prelude, Verdana, san-serif; "><hr align="left" style="width:75%">On Jan 12, 2014 18:02, Dan Mons &lt;dmons@cuttingedge.com.au&gt; wrote: <br><br></span>And now I've read the second part of your post where you want higher <br>bandwidth.  Linux bonding mode 0 (balance-rr) is able to give you <br>aggregate bandwidth to the total sum of your interfaces (i.e.: bonding <br>over 4x 1GbE interfaces will give you 4gbit/s). <br> <br>There are some caveats with certain switches, however.  The "smarter" <br>the switch, often the more problems you'll have (managed switches <br>sometimes don't like seeing MAC addresses moving quickly between <br>physical ports).  If that's the case, your switch should support some <br>sort of  IEEE 802.1ax or IEEE 802.3ad features, in which cache if you <br>hash on receiving MAC (instead of receiving IP), you'll get the same <br>aggregate bandwidth result.  You can use bonding mode 4 on the Linux <br>nodes to then allow the switch to set these modes. <br> <br>If you're using unmanaged switches however, then bonding mode 0 <br>(balance-rr) is what you're after. <br> <br>-Dan <br> <br>---------------- <br>Dan Mons <br>R&amp;D SysAdmin <br>Unbreaker of broken things <br>Cutting Edge <br>http://cuttingedge.com.au <br> <br> <br>On 13 January 2014 08:52, Dan Mons &lt;dmons@cuttingedge.com.au&gt; wrote: <br>&gt; I've configured all of my Gluster nodes to use standard Linux Ethernet bonding. <br>&gt; <br>&gt; We've got Myricom PCI-E 10GBE cards with two NICs per card, bonded <br>&gt; with the balance-xor (mode 2) option.  That restricts any individual <br>&gt; client to 10gbit/s, but can give a global 20gbit/s in and out of each <br>&gt; node when multiple clients hit them. <br>&gt; <br>&gt; Gluster then only cares about one logical interface, and NFS <br>&gt; configuration is simple. <br>&gt; <br>&gt; -Dan <br>&gt; ---------------- <br>&gt; Dan Mons <br>&gt; R&amp;D SysAdmin <br>&gt; Unbreaker of broken things <br>&gt; Cutting Edge <br>&gt; http://cuttingedge.com.au <br>&gt; <br>&gt; <br>&gt; On 13 January 2014 04:03, Nux! &lt;nux@li.nux.ro&gt; wrote: <br>&gt;&gt; Hi, <br>&gt;&gt; <br>&gt;&gt; Has anyone tried to do multi-head NFS with a gluster setup? I'm thinking of <br>&gt;&gt; something similar to https://fedorahosted.org/cluster/wiki/MultiHeadNFS <br>&gt;&gt; What I'm trying to achieve is more throughput than a bonded gigabit link can <br>&gt;&gt; give me. I want soemthing like "multipath" for NFS. <br>&gt;&gt; <br>&gt;&gt; Thoughts? Any gotchas? <br>&gt;&gt; <br>&gt;&gt; Lucian <br>&gt;&gt; <br>&gt;&gt; -- <br>&gt;&gt; Sent from the Delta quadrant using Borg technology! <br>&gt;&gt; <br>&gt;&gt; Nux! <br>&gt;&gt; www.nux.ro <br>&gt;&gt; _______________________________________________ <br>&gt;&gt; Gluster-users mailing list <br>&gt;&gt; Gluster-users@gluster.org <br>&gt;&gt; http://supercolony.gluster.org/mailman/listinfo/gluster-users <br>_______________________________________________ <br>Gluster-users mailing list <br>Gluster-users@gluster.org <br>http://supercolony.gluster.org/mailman/listinfo/gluster-users <br>