<p dir="ltr">No firewalls in this case... </p>
<p dir="ltr">--<br>
Gene Liverman<br>
Systems Administrator<br>
Information Technology Services<br>
University of West Georgia<br>
<a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a></p>
<p dir="ltr">    </p>
<div class="gmail_quote">On Jun 10, 2014 12:57 PM, &quot;Paul Robert Marino&quot; &lt;<a href="mailto:prmarino1@gmail.com">prmarino1@gmail.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Ive also seen this happen when there is a firewall in the middle and<br>
nfslockd malfunctioned because of it.<br>
<br>
<br>
On Tue, Jun 10, 2014 at 12:20 PM, Gene Liverman &lt;<a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a>&gt; wrote:<br>
&gt; Thanks! I turned off drc as suggested and will have to wait and see how that<br>
&gt; works. Here are the packages I have installed via yum:<br>
&gt; # rpm -qa |grep -i gluster<br>
&gt; glusterfs-cli-3.5.0-2.el6.x86_64<br>
&gt; glusterfs-libs-3.5.0-2.el6.x86_64<br>
&gt; glusterfs-fuse-3.5.0-2.el6.x86_64<br>
&gt; glusterfs-server-3.5.0-2.el6.x86_64<br>
&gt; glusterfs-3.5.0-2.el6.x86_64<br>
&gt; glusterfs-geo-replication-3.5.0-2.el6.x86_64<br>
&gt;<br>
&gt; The nfs server service was showing to be running even when stuff wasn&#39;t<br>
&gt; working.  This is from while it was broken:<br>
&gt;<br>
&gt; # gluster volume status<br>
&gt; Status of volume: gv0<br>
&gt; Gluster process                                                     Port<br>
&gt; Online  Pid<br>
&gt; ------------------------------------------------------------------------------------------------------------<br>
&gt; Brick eapps-gluster01.my.domain:/export/sdb1/gv0   49152   Y       39593<br>
&gt; Brick eapps-gluster02.my.domain:/export/sdb1/gv0   49152   Y       2472<br>
&gt; Brick eapps-gluster03.my.domain:/export/sdb1/gv0   49152   Y       1866<br>
&gt; NFS Server on localhost                                          2049    Y<br>
&gt; 39603<br>
&gt; Self-heal Daemon on localhost                                  N/A     Y<br>
&gt; 39610<br>
&gt; NFS Server on eapps-gluster03.my.domain               2049    Y       35125<br>
&gt; Self-heal Daemon on eapps-gluster03.my.domain       N/A     Y       35132<br>
&gt; NFS Server on eapps-gluster02.my.domain               2049    Y       37103<br>
&gt; Self-heal Daemon on eapps-gluster02.my.domain       N/A     Y       37110<br>
&gt;<br>
&gt; Task Status of Volume gv0<br>
&gt; ---------------------------------------------------------------------------------------------------------------<br>
&gt;<br>
&gt;<br>
&gt; Running &#39;service glusterd restart&#39; on the NFS server made things start<br>
&gt; working again after this.<br>
&gt;<br>
&gt;<br>
&gt; -- Gene<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; On Tue, Jun 10, 2014 at 12:10 PM, Niels de Vos &lt;<a href="mailto:ndevos@redhat.com">ndevos@redhat.com</a>&gt; wrote:<br>
&gt;&gt;<br>
&gt;&gt; On Tue, Jun 10, 2014 at 11:32:50AM -0400, Gene Liverman wrote:<br>
&gt;&gt; &gt; Twice now I have had my nfs connection to a replicated gluster volume<br>
&gt;&gt; &gt; stop<br>
&gt;&gt; &gt; responding. On both servers that connect to the system I have the<br>
&gt;&gt; &gt; following<br>
&gt;&gt; &gt; symptoms:<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt;    1. Accessing the mount with the native client is still working fine<br>
&gt;&gt; &gt; (the<br>
&gt;&gt; &gt;    volume is mounted both that way and via nfs. One app requires the nfs<br>
&gt;&gt; &gt;    version)<br>
&gt;&gt; &gt;    2. The logs have messages stating the following: &quot;kernel: nfs: server<br>
&gt;&gt; &gt;    my-servers-name not responding, still trying&quot;<br>
&gt;&gt; &gt;<br>
&gt;&gt; &gt; How can I fix this?<br>
&gt;&gt;<br>
&gt;&gt; You should check if the NFS-server (a glusterfs process) is still<br>
&gt;&gt; running:<br>
&gt;&gt;<br>
&gt;&gt;     # gluster volume status<br>
&gt;&gt;<br>
&gt;&gt; If the NFS-server is not running anymore, you can start it with:<br>
&gt;&gt;<br>
&gt;&gt;     # gluster volume start $VOLUME force<br>
&gt;&gt;     (you only need to do that for one volume)<br>
&gt;&gt;<br>
&gt;&gt;<br>
&gt;&gt; In case this is with GlusterFS 3.5, you may be hitting a memory leak in<br>
&gt;&gt; the DRC (Duplicate Request Cache) implementation of the NFS-server. You<br>
&gt;&gt; can disable DRC with this:<br>
&gt;&gt;<br>
&gt;&gt;     # gluster volume set $VOLUME nfs.drc off<br>
&gt;&gt;<br>
&gt;&gt; In glusterfs-3.5.1 DRC will be disabled by default, there have been too<br>
&gt;&gt; many issues with DRC to enable it for everyone. We need to do more tests<br>
&gt;&gt; and fix DRC in the current development (master) branch.<br>
&gt;&gt;<br>
&gt;&gt; HTH,<br>
&gt;&gt; Niels<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; _______________________________________________<br>
&gt; Gluster-users mailing list<br>
&gt; <a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
&gt; <a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
</blockquote></div>