<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: times new roman,new york,times,serif; font-size: 12pt; color: #000000'>Hi Matthew - did you get a response to this? Harry Mangalam from UC Irvine has been doing what sounds like similar things. I would be happy to put you guys in touch.<br><br>Also, I guess my main question is that I don't understand why or how getting "data from sequencers and other sources living on the public network /into/ the Gluster volume" is a problem. Are you saying that, as structured now, you can't get the data into GlusterFS? Or that you can but it's not performing well? <br><br>If your GlusterFS servers have gigE NICs on the public network, couldn't you just use the NFS server in GlusterFS? Wouldn't that also be available over the public network?<br><br>-JM<br><br><br><hr id="zwchr"><blockquote style="border-left:2px solid rgb(16, 16, 255);margin-left:5px;padding-left:5px;color:#000;font-weight:normal;font-style:normal;text-decoration:none;font-family:Helvetica,Arial,sans-serif;font-size:12pt;">We have a distributed/replicated gluster volume running on IPoIB.&nbsp;&nbsp;&nbsp; We don't yet know much about its performance in practice.&nbsp;&nbsp; The volume will be mounted natively&nbsp; to our HPC compute cluster and used for nextgen sequence analysis.&nbsp;&nbsp; The HPC compute cluster and the Gluster volume are in the same private IB network.<br>
<br>The problem is, we need a way to get data from sequencers and other sources living on the public network /into/ the Gluster volume.&nbsp;&nbsp; The Gluster bricks have gigE NICs on the public side in addition to the Infiniband connections.&nbsp;&nbsp; My first thought is to have each Gluster brick also act as a Gluster client, mount its own volume, then re-export the mount point&nbsp; by NFS or CIFS to the public network.&nbsp;&nbsp;&nbsp; <br>
&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Alternatively, I could set up some number of servers that are /not/ Gluster bricks, but are Gluster clients, and those servers would have IB and GigE -- then have those servers re-export the mounted Gluster volumes by NFS or CIFS.&nbsp;&nbsp; Neither of these models seems terribly efficient, but getting data into the volume won't be as intense and running analysis software against the volume.<br>
<br>1. Has anyone done this (or something similar)?<br>2. Did it work acceptably?<br>3. Does anyone have a better solution?<br><br>(There is an article in which there is a suggestion that Gluster volumes be accessible by multiple addresses natively, but it's not implemented anywhere as far as I know.)<br>
<br>Matt<br><br clear="all">------<br>Matt Temple<br>Director, Research Computing<br>Dana-Farber Cancer Institute.<br><br>
<br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br>http://supercolony.gluster.org/mailman/listinfo/gluster-users</blockquote><br></div></body></html>