<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    <br>
    These may be helpful while HANG is seen.<br>
    <br>
    1. Was there a lot of I/O going on before you notice the hang?<br>
    2. Please capture the nfsstat -c (in NFS client machine) output, to
    check if there is any RPC <br>
    &nbsp;&nbsp;&nbsp; retransmission.<br>
    3. Gluster NFS server log.<br>
    4. 'top' command output for NFS server process, to check the memory
    footprint of the server. (If this is the case, may turning off the
    DRC would help as mentioned by Niels. ).<br>
    <br>
    Best R,<br>
    Santosh<br>
    <br>
    <div class="moz-cite-prefix">On 06/11/2014 02:34 AM, Gene Liverman
      wrote:<br>
    </div>
    <blockquote
cite="mid:CAJ3HbYbkBm4oW4FvEaAqKcejB7GKJS8AbuYEVv=Zko-kBcscng@mail.gmail.com"
      type="cite">
      <p dir="ltr">No firewalls in this case... </p>
      <p dir="ltr">--<br>
        Gene Liverman<br>
        Systems Administrator<br>
        Information Technology Services<br>
        University of West Georgia<br>
        <a moz-do-not-send="true" href="mailto:gliverma@westga.edu">gliverma@westga.edu</a></p>
      <p dir="ltr">&nbsp;&nbsp;&nbsp; </p>
      <div class="gmail_quote">On Jun 10, 2014 12:57 PM, "Paul Robert
        Marino" &lt;<a moz-do-not-send="true"
          href="mailto:prmarino1@gmail.com">prmarino1@gmail.com</a>&gt;
        wrote:<br type="attribution">
        <blockquote class="gmail_quote" style="margin:0 0 0
          .8ex;border-left:1px #ccc solid;padding-left:1ex">
          Ive also seen this happen when there is a firewall in the
          middle and<br>
          nfslockd malfunctioned because of it.<br>
          <br>
          <br>
          On Tue, Jun 10, 2014 at 12:20 PM, Gene Liverman &lt;<a
            moz-do-not-send="true" href="mailto:gliverma@westga.edu">gliverma@westga.edu</a>&gt;
          wrote:<br>
          &gt; Thanks! I turned off drc as suggested and will have to
          wait and see how that<br>
          &gt; works. Here are the packages I have installed via yum:<br>
          &gt; # rpm -qa |grep -i gluster<br>
          &gt; glusterfs-cli-3.5.0-2.el6.x86_64<br>
          &gt; glusterfs-libs-3.5.0-2.el6.x86_64<br>
          &gt; glusterfs-fuse-3.5.0-2.el6.x86_64<br>
          &gt; glusterfs-server-3.5.0-2.el6.x86_64<br>
          &gt; glusterfs-3.5.0-2.el6.x86_64<br>
          &gt; glusterfs-geo-replication-3.5.0-2.el6.x86_64<br>
          &gt;<br>
          &gt; The nfs server service was showing to be running even
          when stuff wasn't<br>
          &gt; working. &nbsp;This is from while it was broken:<br>
          &gt;<br>
          &gt; # gluster volume status<br>
          &gt; Status of volume: gv0<br>
          &gt; Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
          &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Port<br>
          &gt; Online &nbsp;Pid<br>
          &gt;
------------------------------------------------------------------------------------------------------------<br>
          &gt; Brick eapps-gluster01.my.domain:/export/sdb1/gv0 &nbsp; 49152
          &nbsp; Y &nbsp; &nbsp; &nbsp; 39593<br>
          &gt; Brick eapps-gluster02.my.domain:/export/sdb1/gv0 &nbsp; 49152
          &nbsp; Y &nbsp; &nbsp; &nbsp; 2472<br>
          &gt; Brick eapps-gluster03.my.domain:/export/sdb1/gv0 &nbsp; 49152
          &nbsp; Y &nbsp; &nbsp; &nbsp; 1866<br>
          &gt; NFS Server on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
          &nbsp; &nbsp; &nbsp; &nbsp;2049 &nbsp; &nbsp;Y<br>
          &gt; 39603<br>
          &gt; Self-heal Daemon on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
          &nbsp; &nbsp; &nbsp;N/A &nbsp; &nbsp; Y<br>
          &gt; 39610<br>
          &gt; NFS Server on eapps-gluster03.my.domain &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
          2049 &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 35125<br>
          &gt; Self-heal Daemon on eapps-gluster03.my.domain &nbsp; &nbsp; &nbsp; N/A &nbsp;
          &nbsp; Y &nbsp; &nbsp; &nbsp; 35132<br>
          &gt; NFS Server on eapps-gluster02.my.domain &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
          2049 &nbsp; &nbsp;Y &nbsp; &nbsp; &nbsp; 37103<br>
          &gt; Self-heal Daemon on eapps-gluster02.my.domain &nbsp; &nbsp; &nbsp; N/A &nbsp;
          &nbsp; Y &nbsp; &nbsp; &nbsp; 37110<br>
          &gt;<br>
          &gt; Task Status of Volume gv0<br>
          &gt;
---------------------------------------------------------------------------------------------------------------<br>
          &gt;<br>
          &gt;<br>
          &gt; Running 'service glusterd restart' on the NFS server made
          things start<br>
          &gt; working again after this.<br>
          &gt;<br>
          &gt;<br>
          &gt; -- Gene<br>
          &gt;<br>
          &gt;<br>
          &gt;<br>
          &gt;<br>
          &gt; On Tue, Jun 10, 2014 at 12:10 PM, Niels de Vos &lt;<a
            moz-do-not-send="true" href="mailto:ndevos@redhat.com">ndevos@redhat.com</a>&gt;
          wrote:<br>
          &gt;&gt;<br>
          &gt;&gt; On Tue, Jun 10, 2014 at 11:32:50AM -0400, Gene
          Liverman wrote:<br>
          &gt;&gt; &gt; Twice now I have had my nfs connection to a
          replicated gluster volume<br>
          &gt;&gt; &gt; stop<br>
          &gt;&gt; &gt; responding. On both servers that connect to the
          system I have the<br>
          &gt;&gt; &gt; following<br>
          &gt;&gt; &gt; symptoms:<br>
          &gt;&gt; &gt;<br>
          &gt;&gt; &gt; &nbsp; &nbsp;1. Accessing the mount with the native client
          is still working fine<br>
          &gt;&gt; &gt; (the<br>
          &gt;&gt; &gt; &nbsp; &nbsp;volume is mounted both that way and via nfs.
          One app requires the nfs<br>
          &gt;&gt; &gt; &nbsp; &nbsp;version)<br>
          &gt;&gt; &gt; &nbsp; &nbsp;2. The logs have messages stating the
          following: "kernel: nfs: server<br>
          &gt;&gt; &gt; &nbsp; &nbsp;my-servers-name not responding, still trying"<br>
          &gt;&gt; &gt;<br>
          &gt;&gt; &gt; How can I fix this?<br>
          &gt;&gt;<br>
          &gt;&gt; You should check if the NFS-server (a glusterfs
          process) is still<br>
          &gt;&gt; running:<br>
          &gt;&gt;<br>
          &gt;&gt; &nbsp; &nbsp; # gluster volume status<br>
          &gt;&gt;<br>
          &gt;&gt; If the NFS-server is not running anymore, you can
          start it with:<br>
          &gt;&gt;<br>
          &gt;&gt; &nbsp; &nbsp; # gluster volume start $VOLUME force<br>
          &gt;&gt; &nbsp; &nbsp; (you only need to do that for one volume)<br>
          &gt;&gt;<br>
          &gt;&gt;<br>
          &gt;&gt; In case this is with GlusterFS 3.5, you may be
          hitting a memory leak in<br>
          &gt;&gt; the DRC (Duplicate Request Cache) implementation of
          the NFS-server. You<br>
          &gt;&gt; can disable DRC with this:<br>
          &gt;&gt;<br>
          &gt;&gt; &nbsp; &nbsp; # gluster volume set $VOLUME nfs.drc off<br>
          &gt;&gt;<br>
          &gt;&gt; In glusterfs-3.5.1 DRC will be disabled by default,
          there have been too<br>
          &gt;&gt; many issues with DRC to enable it for everyone. We
          need to do more tests<br>
          &gt;&gt; and fix DRC in the current development (master)
          branch.<br>
          &gt;&gt;<br>
          &gt;&gt; HTH,<br>
          &gt;&gt; Niels<br>
          &gt;<br>
          &gt;<br>
          &gt;<br>
          &gt; _______________________________________________<br>
          &gt; Gluster-users mailing list<br>
          &gt; <a moz-do-not-send="true"
            href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
          &gt; <a moz-do-not-send="true"
            href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"
            target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
        </blockquote>
      </div>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </body>
</html>