I&#39;d like to point out that I&#39;ve had similar experience to Carl but without the +mtime in my finds and we did try Gluster&#39;s NFS.  At one point recently I threw together a spreadsheet documenting the differences that also includes details regarding the various things I tried as I compared a direct SAN (our previous environment) to our current Gluster based system, to Gluster&#39;s NFS implementation on the same volumes.  The most surprising point was that the Gluster NFS did so well.<br>
<br>its attached.<br><br>-greg<br><br><div class="gmail_quote">On Fri, Mar 2, 2012 at 07:17, Carl Boberg <span dir="ltr">&lt;<a href="mailto:carl.boberg@memnonnetworks.com">carl.boberg@memnonnetworks.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">There are about 4000 files in the dir.<div><br></div><div>Ran it again after clearing the caches and now it took over 3 minutes on the gfs and about 4 seconds on the nfs (this is not gluster nfs but an old, classic nfs share)</div>

<div><br></div><div>All clients are centos 5.6 and the 2 servers are centos 6.2</div><div>Runnig Gluster 3.2.5 rpm install with replicate setup from the docs.</div><div><br></div><div>If it is the self heal operation that is the cause of the slowdown is there away around not triggering it? Or better yet, any custom options to add to the config to make this kind of find command go a bit quicker?</div>

<div><br></div><div>Our application read and write files to the volume but we also have a section for admins in the application that utilizes find and grep to find specific files by date or content. This tool is vital for problem solving and if it takes so much more time to do such operations its just not usable...<br clear="all">

<br>Ideas?<br><br>Cheers<div class="im"><br>---<br>Carl Boberg<br>Operations<br><br>Memnon Networks AB<br>Tegnérgatan 34, SE-113 59 Stockholm<br><br>Mobile: <a href="tel:%2B46%280%2970%20467%2027%2012" value="+46704672712" target="_blank">+46(0)70 467 27 12</a><br>
<a href="http://www.memnonnetworks.com" target="_blank">www.memnonnetworks.com</a><br>
<br>
<br><br></div><div class="im"><div class="gmail_quote">On Fri, Mar 2, 2012 at 11:58, Brian Candler <span dir="ltr">&lt;<a href="mailto:B.Candler@pobox.com" target="_blank">B.Candler@pobox.com</a>&gt;</span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

<div>On Fri, Mar 02, 2012 at 11:43:27AM +0100, Carl Boberg wrote:<br>
&gt;    time find /mnt/nfs/&lt;datadir&gt; -type f -mtime -2<br>
&gt;<br>
&gt;    real 2m0.067s &lt;--<br>
&gt;    user 0m0.030s<br>
&gt;    sys 0m0.252s<br>
<br>
</div>The -mtime -2 is forcing gluster to do a stat() on every file, and this<br>
makes gluster do a self-heal operation where it needs to access the file on<br>
both volumes:<br>
<br>
<a href="http://www.gluster.org/community/documentation/index.php/Gluster_3.1:_Triggering_Self-Heal_on_Replicate" target="_blank">http://www.gluster.org/community/documentation/index.php/Gluster_3.1:_Triggering_Self-Heal_on_Replicate</a><br>


<a href="http://www.youtube.com/watch?v=AsgtE7Ph2_k" target="_blank">http://www.youtube.com/watch?v=AsgtE7Ph2_k</a><br>
<br>
Having said that, 2 minutes seems pretty slow. How many files are there in<br>
total, i.e. without the -mtime filter?<br>
<br>
Is it possible the NFS test had the inode data in cache, so was an unfair<br>
comparison?  I suggest you do<br>
    echo 3 &gt;/proc/sys/vm/drop_caches<br>
(as root) on both client and server before each test.<br>
<br>
Regards,<br>
<font color="#888888"><br>
Brian.<br>
</font></blockquote></div><br></div></div>
<br>_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
<br></blockquote></div><br>