<html><head><style type='text/css'>p { margin: 0; }</style></head><body><div style='font-family: Times New Roman; font-size: 12pt; color: #000000'>Ed - <br>&nbsp;&nbsp;&nbsp; I'll follow up on your request with engineering and professional services, can we get back to you Wednesday latest?<span><br><br><span name="x"></span><div><div>Thanks, <br>
<br>
Craig<br>
<br>--<br>Craig
 Carl<br><div><div><div><div><div><div><div><div><div><div><div><div><div>Sales 
Engineer; Gluster, Inc. <br>Cell - (<span class="Object" id="OBJ_PREFIX_DWT262"><a href="about:blank" mce_href="about:blank" target="_blank">408) 
829-9953</a></span> (California, USA)<br>Office - (<span class="Object" id="OBJ_PREFIX_DWT263"><a href="about:blank" mce_href="about:blank" target="_blank">408) 
770-1884</a></span><br>Gtalk - <span class="Object" id="OBJ_PREFIX_DWT264"><span class="Object" id="OBJ_PREFIX_DWT426">craig.carl@gmail.com</span></span><br>Twitter

 - @gluster<br><span class="Object" id="OBJ_PREFIX_DWT265"><span class="Object" id="OBJ_PREFIX_DWT427"><a href="http://www.youtube.com/user/GlusterStorage" mce_href="http://www.youtube.com/user/GlusterStorage" target="_blank">Installing

 Gluster Storage Platform, the movie!</a><br></span></span><span class="Object" id="OBJ_PREFIX_DWT5265"><a href="http://rackerhacker.com/2010/08/11/one-month-with-glusterfs-in-production/" mce_href="http://rackerhacker.com/2010/08/11/one-month-with-glusterfs-in-production/" target="_blank">http://rackerhacker.com/2010/08/11/one-month-with-glusterfs-in-production/</a></span><br></div></div></div></div></div></div></div></div></div></div></div></div></div></div></div><span name="x"></span><br></span><br><hr id="zwchr"><b>From: </b>"Ed W" &lt;lists@wildgooses.com&gt;<br><b>To: </b>gluster-devel@nongnu.org<br><b>Sent: </b>Saturday, September 25, 2010 5:35:21 PM<br><b>Subject: </b>Re: [Gluster-devel] Can I bring a development idea to Dev's attention?<br><br>&nbsp;&nbsp;Does someone from Gluster like to contact me with a "reasonable" offer <br>for sponsoring some kind of "optimistic cache" feature, with a specific <br>view to optimising the NUFA server side replication architecture?<br><br>I would specifically like to optimise the case that you have a flat <br>namespace on the server (master/master filesharing), but you optimise <br>the applications in such a way that the applications running on each <br>brick (NUFA) only touch a subset of all files (in general). &nbsp;eg a <br>mailserver with a flat filesystem, but users are proxied so that they <br>generally touch only a specific server, or a webserver with a flat <br>namespace where a proxy points specific domains to be served by specific <br>servers?<br><br>In this case I would like to see a specific brick realise that it's <br>predominantly the reader/write for a subset of all files and optimise <br>it's access at the expense of other bricks which need to access the same <br>files (ie I don't just want to turn up the writeback cache, I want cache <br>coherency across the entire cluster). &nbsp;I would accept that random <br>read/writes to random bricks would be slower, in return for the <br>optimisation that reads/writes would be faster *if* the clients optimise <br>themselves to *prefer* to touch specific bricks (ie NUFA). &nbsp;Such an <br>optimisation should not be set in stone of course, if the activity on a <br>subdirectory generally seems to move across to another brick then that <br>brick should eventually optimise it's read/write performance (at the <br>expense that another brick's access now becomes slower to that same <br>subset of files.)<br><br>Anyone care to quote on this? &nbsp;Seems like it's a popular performance <br>issue on the mailing list and with some optimisation later it also seems <br>like the basis for cross datacenter replication?<br><br><br>Thanks<br><br>Ed W<br><br>_______________________________________________<br>Gluster-devel mailing list<br>Gluster-devel@nongnu.org<br>http://lists.nongnu.org/mailman/listinfo/gluster-devel</div></body></html>