<html><body style="word-wrap: break-word; -webkit-nbsp-mode: space; -webkit-line-break: after-white-space; ">Hello,<div><br></div><div>I'm running GlusterFS&nbsp;v3.0.2 &nbsp;with the native FUSE plugin on 2 Rackspace VM's each running 4GB Ram &nbsp;&amp; 160GB HD. (GFS1 and GFS2) Available HD space is approx 57% remaining.</div><div><br></div><div>glusterfsd and postfix are the only processes running on these 2 servers, with a total of 6 external clients connected. Each server is a client to each other as well. (8 Total clients)&nbsp;</div><div><br></div><div>Upon fresh boot of the server, and processes, the total RAM usage is very minimal, however after a few hours of uptime, the RAM usage is almost completely depleted down to &lt; 100MB on GFS2 and &lt; 20MB on GFS1.</div><div><br></div><div>"lsof | grep gfs" reveals 53 connections on GFS1 and 45 on GFS2 &nbsp;from the multiple clients.</div><div><br></div><div>This doesn't appear to be client related, since resources are minimal at boot time, with all connections active. However, I'm not completely familiar with the configuration features.</div><div><br></div><div>I've just pushed these servers into production, and the websites they serve are receiving approximately 50k hits a day total. Yet, this RAM issue was present before any real traffic existed. Do I have a config error? or am I missing any major performance tuning options?</div><div><b><br></b></div><div>Any help would be very much appreciated. Thanks,</div><div>Chris</div><div><br></div><div>TOP:</div><div><br></div><div><div>&nbsp;PID USER &nbsp; &nbsp; &nbsp;PR &nbsp;NI &nbsp;VIRT &nbsp;RES &nbsp;SHR S %CPU %MEM &nbsp; &nbsp;TIME+ &nbsp;COMMAND &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;</div><div>&nbsp;2421 root &nbsp; &nbsp; &nbsp;20 &nbsp; 0 &nbsp;612m 419m 1092 S &nbsp; &nbsp;0 10.4 &nbsp; 1715:36 glusterfsd&nbsp;</div></div><div><b><br></b></div><div><b>Here is my server config:</b></div><div>&nbsp;</div><div><div>root@lmdc3gfs02:~# cat /etc/glusterfs/glusterfs-server.vol&nbsp;</div><div>volume posix</div><div>&nbsp;&nbsp;type storage/posix</div><div>&nbsp;&nbsp;option directory /data/export</div><div>end-volume</div><div>&nbsp;</div><div>volume locks</div><div>&nbsp;&nbsp;type features/locks</div><div>&nbsp;&nbsp;subvolumes posix</div><div>end-volume</div><div>&nbsp;</div><div>volume brick</div><div>&nbsp;&nbsp;type performance/io-threads</div><div>&nbsp;&nbsp;option thread-count 8</div><div>&nbsp;&nbsp;subvolumes locks</div><div>end-volume</div><div>&nbsp;</div><div>volume posix-ns</div><div>&nbsp;&nbsp;type storage/posix</div><div>&nbsp;&nbsp;option directory /data/export-ns</div><div>end-volume</div><div>&nbsp;</div><div>volume locks-ns</div><div>&nbsp;&nbsp;type features/locks</div><div>&nbsp;&nbsp;subvolumes posix-ns</div><div>end-volume</div><div>&nbsp;</div><div>volume brick-ns</div><div>&nbsp;&nbsp;type performance/io-threads</div><div>&nbsp;&nbsp;option thread-count 8</div><div>&nbsp;&nbsp;subvolumes locks-ns</div><div>end-volume</div><div>&nbsp;</div><div>volume server</div><div>&nbsp;&nbsp;type protocol/server</div><div>&nbsp;&nbsp;option transport-type tcp</div><div>&nbsp;&nbsp;option auth.addr.brick.allow *</div><div>&nbsp;&nbsp;option auth.addr.brick-ns.allow *</div><div>&nbsp;&nbsp;subvolumes brick brick-ns</div><div>end-volume</div></div><div><br></div><div><b>Client Config:</b></div><div><br></div><div><div>root@lmdc3gfs02:~# cat /etc/glusterfs/glusterfs-client.vol&nbsp;</div><div>volume brick1</div><div>&nbsp;type protocol/client</div><div>&nbsp;option transport-type tcp/client</div><div>&nbsp;option remote-host 10.179.122.66 &nbsp; # IP address of the remote brick</div><div>&nbsp;option remote-subvolume brick &nbsp; &nbsp; &nbsp; &nbsp;# name of the remote volume</div><div>&nbsp;option ping-timeout 2</div><div>end-volume</div><div><br></div><div>volume brick2</div><div>&nbsp;type protocol/client</div><div>&nbsp;option transport-type tcp/client</div><div>&nbsp;option remote-host 10.179.122.69 &nbsp; &nbsp; &nbsp;# IP address of the remote brick</div><div>&nbsp;option remote-subvolume brick &nbsp; &nbsp; &nbsp; &nbsp;# name of the remote volume</div><div>&nbsp;option ping-timeout 2</div><div>end-volume</div><div><br></div><div>volume brick1-ns</div><div>&nbsp;type protocol/client</div><div>&nbsp;option transport-type tcp/client</div><div>&nbsp;option remote-host 10.179.122.66 &nbsp; &nbsp;# IP address of the remote brick</div><div>&nbsp;option remote-subvolume brick-ns &nbsp; &nbsp; &nbsp; &nbsp;# name of the remote volume</div><div>&nbsp;option ping-timeout 2</div><div>end-volume</div><div><br></div><div>volume brick2-ns</div><div>&nbsp;type protocol/client</div><div>&nbsp;option transport-type tcp/client</div><div>&nbsp;option remote-host 10.179.122.69 &nbsp; &nbsp; &nbsp;# IP address of the remote brick</div><div>&nbsp;option remote-subvolume brick-ns &nbsp; &nbsp; &nbsp; &nbsp;# name of the remote volume</div><div>&nbsp;option ping-timeout 2</div><div>end-volume</div><div><br></div><div>volume afr1</div><div>&nbsp;type cluster/afr</div><div>&nbsp;subvolumes brick1 brick2</div><div>end-volume</div><div><br></div><div>volume afr-ns</div><div>&nbsp;type cluster/afr</div><div>&nbsp;subvolumes brick1-ns brick2-ns</div><div>end-volume</div></div><div><br></div><div><br></div></body></html>