<div>I think performance.cache-refresh-timeout *might* cache directory listings, so you can try bumping that value up. But probably someone else on the list needs to clarify if that will actually cache a directory (might only cache a file).<br>
</div><div><br></div><div>If not, you can write a translator to cache directory listings. A good place to start is the code Jeff Darcy wrote: <a href="https://github.com/jdarcy/negative-lookup">https://github.com/jdarcy/negative-lookup</a></div>
<div><br></div><div>The best solution would be to directly use the API in your own code - but I don&#39;t think that is really going to be available until gluster 3.4? Basically fuse directory lookups are expensive so it is best to use it as little as possible.</div>
<div class="gmail_extra"><br><br><div class="gmail_quote">On Tue, Dec 4, 2012 at 2:30 PM, Kushnir, Michael (NIH/NLM/LHC) [C] <span dir="ltr">&lt;<a href="mailto:michael.kushnir@nih.gov" target="_blank">michael.kushnir@nih.gov</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Thanks for the reply,<br>
<div class="im"><br>
&gt; Are you just using a single brick? Gluster is a scale-out NAS file system so is usually used when you want to want to aggregate the disk performance and disk space of many machines into a singe Global Name Space.<br>

<br>
</div>I currently have one server with 8 bricks. Once I get through evaluation, we will expand to multiple servers with 24 bricks each. We are looking to have a replica count of 2  for each brick eventually.<br>
<br>
On my gluster server, I can run an ls against /export/*/imgs and get file listings from each brick in seconds. However, on my client, I run ls against the /imgs/ directory on the gluster volume and wait days. Even if I mount the gluster volume on the storage server itself, ls takes a long long time.<br>

<br>
So, what are my options for improving the speed of directory listing on gluster clients? Would changing brick FS to ext4 make a difference in the time it takes to list on the client? Should I try mounting the volume over NFS? Something else?<br>

<br>
Thanks,<br>
Michael<br>
<div class="HOEnZb"><div class="h5"><br>
<br>
-----Original Message-----<br>
From: Andrew Holway [mailto:<a href="mailto:a.holway@syseleven.de">a.holway@syseleven.de</a>]<br>
Sent: Tuesday, December 04, 2012 4:47 PM<br>
To: Kushnir, Michael (NIH/NLM/LHC) [C]<br>
Cc: <a href="mailto:gluster-users@gluster.org">gluster-users@gluster.org</a><br>
Subject: Re: [Gluster-users] Does brick fs play a large role on listing files client side?<br>
<br>
<br>
On Dec 4, 2012, at 5:30 PM, Kushnir, Michael (NIH/NLM/LHC) [C] wrote:<br>
<br>
&gt; My GlusterFS deployment right now is 8 x 512GB OCZ Vertex 4 (no RAID) connected to Dell PERC H710, formatted as XFS and put together into a distributed volume.<br>
<br>
Hi,<br>
<br>
Are you just using a single brick? Gluster is a scale-out NAS file system so is usually used when you want to want to aggregate the disk performance and disk space of many machines into a singe Global Name Space.<br>
<br>
ocfs (cluster filesystem) is more for when you have a single disk volume attached via SCSI to many machines. More than one machine cannot for instance access the same ext4 filesystem concurrently. ocfs provides a locking mechanism allowing many systems to access the same SCSI device at the same time.<br>

<br>
Gluster is to NFS as OCFS is to EXT4 (kinda).<br>
<br>
The lag your getting might be due to FUSE (Filesystem in Userspace). FUSE allows weird and wonderful filesystems to be mounted in userspace meaning kernel support is not required. This is typically much slower than kernel enabled filesystems.<br>

<br>
Cheers,<br>
<br>
Andrew<br>
<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</div></div></blockquote></div><br></div>