<head></head><body data-blackberry-caret-color="#00a8df" style="background-color: rgb(255, 255, 255); line-height: initial;"><div style="width: 100%; font-size: initial; font-family: Calibri, 'Slate Pro', sans-serif; color: rgb(31, 73, 125); text-align: initial; background-color: rgb(255, 255, 255);">OK, if you want to be cool, use an IPv6 multicast group :)</div><div style="width: 100%; font-size: initial; font-family: Calibri, 'Slate Pro', sans-serif; color: rgb(31, 73, 125); text-align: initial; background-color: rgb(255, 255, 255);"><br></div><div style="width: 100%; font-size: initial; font-family: Calibri, 'Slate Pro', sans-serif; color: rgb(31, 73, 125); text-align: initial; background-color: rgb(255, 255, 255);">M.</div>                                                                                                                                     <p style="font-size: initial; font-family: Calibri, 'Slate Pro', sans-serif; color: rgb(31, 73, 125); text-align: initial; background-color: rgb(255, 255, 255);">-- <br>Michael Brown               | `One of the main causes of the fall of<br>Systems Consultant          | the Roman Empire was that, lacking zero,<br>Net Direct Inc.             | they had no way to indicate successful<br>☎: +1 519 883 1172 x5106    | termination of their C programs.' - Firth<br></p>                                                                                                                                                                           <table width="100%" style="background-color:white;border-spacing:0px;"> <tbody><tr><td colspan="2" style="font-size: initial; text-align: initial; background-color: rgb(255, 255, 255);">                                              <div id="_persistentHeader" style="border-style: solid none none; border-top-color: rgb(181, 196, 223); border-top-width: 1pt; padding: 3pt 0in 0in; font-family: Tahoma, 'BB Alpha Sans', 'Slate Pro'; font-size: 10pt;">  <div><b>From: </b>James</div><div><b>Sent: </b>Friday, May 10, 2013 18:54 PM</div><div><b>To: </b>mozes@ksu.edu</div><div><b>Reply To: </b>James</div><div><b>Cc: </b>gluster-users@gluster.org</div><div><b>Subject: </b>Re: [Gluster-users] Newbee Question: GlusterFS on Compute Cluster?</div></div></td></tr></tbody></table><div style="border-style: solid none none; border-top-color: rgb(186, 188, 209); border-top-width: 1pt; font-size: initial; text-align: initial; background-color: rgb(255, 255, 255);"></div><br><div id="_originalContent" style="">On Fri, May 10, 2013 at 6:45 PM, Adam Tygart &lt;mozes@k-state.edu&gt; wrote:<br>&gt; Randy,<br>&gt;<br>&gt; On my compute cluster we use round-robin dns (for HA of the volume<br>&gt; definition) and mount the GlusterFS volume via the FUSE (native) client. All<br>&gt; of the I/O would go directly to the nodes, rather than through an<br>&gt; intermediary (NFS) server.<br>I've mentioned this once before, but in my opinion, using something<br>like vrrp (eg: keepalived) is better than using rr-dns. Also it's<br>cooler.<br><br>James<br><br>&gt;<br>&gt; --<br>&gt; Adam Tygart<br>&gt; Beocat Sysadmin<br>&gt; www.beocat.cis.ksu.edu<br>&gt;<br>&gt;<br>&gt; On Fri, May 10, 2013 at 5:38 PM, Bradley, Randy &lt;Randy.Bradley@ars.usda.gov&gt;<br>&gt; wrote:<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; I've got a 24 node compute cluster.  Each node has one extra terabyte<br>&gt;&gt; drive.  It seemed reasonable to install Gluster on each of the compute nodes<br>&gt;&gt; and the head node.  I created a volume from the head node:<br>&gt;&gt;<br>&gt;&gt; gluster volume create gv1 rep 2 transport tcp compute000:/export/brick1<br>&gt;&gt; compute001:/export/brick1 compute002:/export/brick1<br>&gt;&gt; compute003:/export/brick1 compute004:/export/brick1<br>&gt;&gt; compute005:/export/brick1 compute006:/export/brick1<br>&gt;&gt; compute007:/export/brick1 compute008:/export/brick1<br>&gt;&gt; compute009:/export/brick1 compute010:/export/brick1<br>&gt;&gt; compute011:/export/brick1 compute012:/export/brick1<br>&gt;&gt; compute013:/export/brick1 compute014:/export/brick1<br>&gt;&gt; compute015:/export/brick1 compute016:/export/brick1<br>&gt;&gt; compute017:/export/brick1 compute018:/export/brick1<br>&gt;&gt; compute019:/export/brick1 compute020:/export/brick1<br>&gt;&gt; compute021:/export/brick1 compute022:/export/brick1<br>&gt;&gt; compute023:/export/brick1<br>&gt;&gt;<br>&gt;&gt; And then I mounted the volume on the head node.  So far, so good.  Apx. 10<br>&gt;&gt; TB available.<br>&gt;&gt;<br>&gt;&gt; Now I would like each compute node to be able to access files on this<br>&gt;&gt; volume.  Would this be done by NFS mount from the head node to the compute<br>&gt;&gt; nodes or is there a better way?<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; Thanks,<br>&gt;&gt;<br>&gt;&gt; Randy<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; This electronic message contains information generated by the USDA solely<br>&gt;&gt; for the intended recipients. Any unauthorized interception of this message<br>&gt;&gt; or the use or disclosure of the information it contains may violate the law<br>&gt;&gt; and subject the violator to civil or criminal penalties. If you believe you<br>&gt;&gt; have received this message in error, please notify the sender and delete the<br>&gt;&gt; email immediately.<br>&gt;&gt;<br>&gt;&gt; _______________________________________________<br>&gt;&gt; Gluster-users mailing list<br>&gt;&gt; Gluster-users@gluster.org<br>&gt;&gt; http://supercolony.gluster.org/mailman/listinfo/gluster-users<br>&gt;<br>&gt;<br>&gt;<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; http://supercolony.gluster.org/mailman/listinfo/gluster-users<br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://supercolony.gluster.org/mailman/listinfo/gluster-users<br></div></body>