<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <div class="moz-cite-prefix">Everything seems to be working great,
      but the logs are filled with these warnings. We can access the
      files that are reporting a stale nfs handle fine. What would these
      warnings be a symptom of? Warnings worry me so I don't want to
      ignore these errors even if it is log spam.<br>
      &nbsp;<br>
      <br>
      On 10/15/2013 06:19 PM, Joe Julian wrote:<br>
    </div>
    <blockquote cite="mid:525DCD89.1090604@julianfamily.org" type="cite">
      <meta content="text/html; charset=ISO-8859-1"
        http-equiv="Content-Type">
      Note the " W ". Errors are " E ". If something's not working,
      however, please elaborate. Those warnings may be a symptom, or
      just might be log spam.<br>
      <br>
      <div class="moz-cite-prefix">On 10/15/2013 2:54 PM, Justin Dossey
        wrote:<br>
      </div>
      <blockquote
cite="mid:CAPMPShxkwLNJM738OQMfv9s5ia=99rpDUq0mM17tmOK3=+H8GQ@mail.gmail.com"
        type="cite">
        <div dir="ltr">I've seen these errors too on GlusterFS 3.3.1
          nodes with glusterfs-fuse mounts. &nbsp;It's particularly strange
          because we're not using NFS to mount the volumes.</div>
        <div class="gmail_extra"><br>
          <br>
          <div class="gmail_quote">On Tue, Oct 15, 2013 at 1:44 PM, Neil
            Van Lysel <span dir="ltr">&lt;<a moz-do-not-send="true"
                href="mailto:van-lyse@cs.wisc.edu" target="_blank">van-lyse@cs.wisc.edu</a>&gt;</span>
            wrote:<br>
            <blockquote class="gmail_quote" style="margin:0 0 0
              .8ex;border-left:1px #ccc solid;padding-left:1ex"> Hello!<br>
              <br>
              Many of our Gluster client nodes are seeing a lot of these
              errors in their log files:<br>
              <br>
              [2013-10-15 06:48:59.467263] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-6: remote operation failed: Stale NFS file
              handle. Path: /path (3cfbebf4-40e4-4300-aa6e-bd43b4310b94)<br>
              [2013-10-15 06:48:59.467331] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-7: remote operation failed: Stale NFS file
              handle. Path: /path (3cfbebf4-40e4-4300-aa6e-bd43b4310b94)<br>
              [2013-10-15 06:48:59.470554] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-0: remote operation failed: Stale NFS file
              handle. Path: /path (d662e7db-7864-4b18-b587-bdc5e8756076)<br>
              [2013-10-15 06:48:59.470624] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-1: remote operation failed: Stale NFS file
              handle. Path: /path (d662e7db-7864-4b18-b587-bdc5e8756076)<br>
              [2013-10-15 06:49:04.537548] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-3: remote operation failed: Stale NFS file
              handle. Path: /path (a4ea32e0-25f8-440d-b258-23430490624d)<br>
              [2013-10-15 06:49:04.537651] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-2: remote operation failed: Stale NFS file
              handle. Path: /path (a4ea32e0-25f8-440d-b258-23430490624d)<br>
              [2013-10-15 06:49:14.380551] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-0: remote operation failed: Stale NFS file
              handle. Path: /path (669a2d6b-2998-48b2-8f3f-93d5f65cdd87)<br>
              [2013-10-15 06:49:14.380663] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-1: remote operation failed: Stale NFS file
              handle. Path: /path (669a2d6b-2998-48b2-8f3f-93d5f65cdd87)<br>
              [2013-10-15 06:49:14.386390] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-4: remote operation failed: Stale NFS file
              handle. Path: /path (016aafa9-35ac-4f6f-90bd-b4ac5d435ad0)<br>
              [2013-10-15 06:49:14.386471] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-home-client-5: remote operation failed: Stale NFS file
              handle. Path: /path (016aafa9-35ac-4f6f-90bd-b4ac5d435ad0)<br>
              [2013-10-15 18:28:10.630357] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-2: remote operation failed: Stale NFS
              file handle. Path: /path
              (5d6153cc-64b3-4151-85cd-2646c33c6918)<br>
              [2013-10-15 18:28:10.630425] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-3: remote operation failed: Stale NFS
              file handle. Path: /path
              (5d6153cc-64b3-4151-85cd-2646c33c6918)<br>
              [2013-10-15 18:28:10.636301] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-4: remote operation failed: Stale NFS
              file handle. Path: /path
              (2f64b9fe-02a0-408b-9edb-0c5e5bf0ed0e)<br>
              [2013-10-15 18:28:10.636377] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-5: remote operation failed: Stale NFS
              file handle. Path: /path
              (2f64b9fe-02a0-408b-9edb-0c5e5bf0ed0e)<br>
              [2013-10-15 18:28:10.638574] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-5: remote operation failed: Stale NFS
              file handle. Path: /path
              (990de721-1fc9-461d-8412-8c17c23ebbbd)<br>
              [2013-10-15 18:28:10.638647] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-4: remote operation failed: Stale NFS
              file handle. Path: /path
              (990de721-1fc9-461d-8412-8c17c23ebbbd)<br>
              [2013-10-15 18:28:10.645043] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-7: remote operation failed: Stale NFS
              file handle. Path: /path
              (0d8d3c5a-d26e-4c15-a8d5-987a4033a6d0)<br>
              [2013-10-15 18:28:10.645157] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-6: remote operation failed: Stale NFS
              file handle. Path: /path
              (0d8d3c5a-d26e-4c15-a8d5-987a4033a6d0)<br>
              [2013-10-15 18:28:10.648126] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-6: remote operation failed: Stale NFS
              file handle. Path: /path
              (c1c84d57-f54d-4dc1-a5df-9be563da78fb)<br>
              [2013-10-15 18:28:10.648276] W
              [client-rpc-fops.c:2624:client3_3_lookup_cbk]
              0-scratch-client-7: remote operation failed: Stale NFS
              file handle. Path: /path
              (c1c84d57-f54d-4dc1-a5df-9be563da78fb)<br>
              <br>
              <br>
              How can I resolve these errors?<br>
              <br>
              <br>
              *gluster --version:<br>
              glusterfs 3.4.0 built on Jul 25 2013 04:12:27<br>
              <br>
              <br>
              *gluster volume info:<br>
              Volume Name: scratch<br>
              Type: Distributed-Replicate<br>
              Volume ID: 198b9d77-96e6-4c7f-9f0c-3618cbcaa940<br>
              Status: Started<br>
              Number of Bricks: 4 x 2 = 8<br>
              Transport-type: tcp<br>
              Bricks:<br>
              Brick1: 10.129.40.21:/data/glusterfs/brick1/scratch<br>
              Brick2: 10.129.40.22:/data/glusterfs/brick1/scratch<br>
              Brick3: 10.129.40.23:/data/glusterfs/brick1/scratch<br>
              Brick4: 10.129.40.24:/data/glusterfs/brick1/scratch<br>
              Brick5: 10.129.40.21:/data/glusterfs/brick2/scratch<br>
              Brick6: 10.129.40.22:/data/glusterfs/brick2/scratch<br>
              Brick7: 10.129.40.23:/data/glusterfs/brick2/scratch<br>
              Brick8: 10.129.40.24:/data/glusterfs/brick2/scratch<br>
              Options Reconfigured:<br>
              features.quota: off<br>
              <br>
              Volume Name: home<br>
              Type: Distributed-Replicate<br>
              Volume ID: 0d8ebafc-471e-4b16-a4a9-787ce8616225<br>
              Status: Started<br>
              Number of Bricks: 4 x 2 = 8<br>
              Transport-type: tcp<br>
              Bricks:<br>
              Brick1: 10.129.40.21:/data/glusterfs/brick1/home<br>
              Brick2: 10.129.40.22:/data/glusterfs/brick1/home<br>
              Brick3: 10.129.40.23:/data/glusterfs/brick1/home<br>
              Brick4: 10.129.40.24:/data/glusterfs/brick1/home<br>
              Brick5: 10.129.40.21:/data/glusterfs/brick2/home<br>
              Brick6: 10.129.40.22:/data/glusterfs/brick2/home<br>
              Brick7: 10.129.40.23:/data/glusterfs/brick2/home<br>
              Brick8: 10.129.40.24:/data/glusterfs/brick2/home<br>
              Options Reconfigured:<br>
              features.quota: off<br>
              <br>
              <br>
              *gluster volume status:<br>
              Status of volume: scratch<br>
              Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              Port Online &nbsp;Pid<br>
------------------------------------------------------------------------------<br>
              Brick 10.129.40.21:/data/glusterfs/brick1/scratch &nbsp; &nbsp; &nbsp;
              49154 Y &nbsp; &nbsp; &nbsp; 7536<br>
              Brick 10.129.40.22:/data/glusterfs/brick1/scratch &nbsp; &nbsp; &nbsp;
              49154 Y &nbsp; &nbsp; &nbsp; 27976<br>
              Brick 10.129.40.23:/data/glusterfs/brick1/scratch &nbsp; &nbsp; &nbsp;
              49154 Y &nbsp; &nbsp; &nbsp; 7436<br>
              Brick 10.129.40.24:/data/glusterfs/brick1/scratch &nbsp; &nbsp; &nbsp;
              49154 Y &nbsp; &nbsp; &nbsp; 19773<br>
              Brick 10.129.40.21:/data/glusterfs/brick2/scratch &nbsp; &nbsp; &nbsp;
              49155 Y &nbsp; &nbsp; &nbsp; 7543<br>
              Brick 10.129.40.22:/data/glusterfs/brick2/scratch &nbsp; &nbsp; &nbsp;
              49155 Y &nbsp; &nbsp; &nbsp; 27982<br>
              Brick 10.129.40.23:/data/glusterfs/brick2/scratch &nbsp; &nbsp; &nbsp;
              49155 Y &nbsp; &nbsp; &nbsp; 7442<br>
              Brick 10.129.40.24:/data/glusterfs/brick2/scratch &nbsp; &nbsp; &nbsp;
              49155 Y &nbsp; &nbsp; &nbsp; 19778<br>
              NFS Server on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              2049 Y &nbsp; &nbsp; &nbsp; 7564<br>
              Self-heal Daemon on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              N/A Y &nbsp; &nbsp; &nbsp; 7569<br>
              NFS Server on 10.129.40.24 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;2049 Y &nbsp; &nbsp; &nbsp; 19788<br>
              Self-heal Daemon on 10.129.40.24 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;N/A Y &nbsp; &nbsp; &nbsp; 19792<br>
              NFS Server on 10.129.40.23 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;2049 Y &nbsp; &nbsp; &nbsp; 7464<br>
              Self-heal Daemon on 10.129.40.23 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;N/A Y &nbsp; &nbsp; &nbsp; 7468<br>
              NFS Server on 10.129.40.22 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;2049 Y &nbsp; &nbsp; &nbsp; 28004<br>
              Self-heal Daemon on 10.129.40.22 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;N/A Y &nbsp; &nbsp; &nbsp; 28008<br>
              <br>
              There are no active volume tasks<br>
              Status of volume: home<br>
              Gluster process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              Port Online &nbsp;Pid<br>
------------------------------------------------------------------------------<br>
              Brick 10.129.40.21:/data/glusterfs/brick1/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49152 Y &nbsp; &nbsp; &nbsp; 7549<br>
              Brick 10.129.40.22:/data/glusterfs/brick1/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49152 Y &nbsp; &nbsp; &nbsp; 27989<br>
              Brick 10.129.40.23:/data/glusterfs/brick1/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49152 Y &nbsp; &nbsp; &nbsp; 7449<br>
              Brick 10.129.40.24:/data/glusterfs/brick1/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49152 Y &nbsp; &nbsp; &nbsp; 19760<br>
              Brick 10.129.40.21:/data/glusterfs/brick2/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49153 Y &nbsp; &nbsp; &nbsp; 7554<br>
              Brick 10.129.40.22:/data/glusterfs/brick2/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49153 Y &nbsp; &nbsp; &nbsp; 27994<br>
              Brick 10.129.40.23:/data/glusterfs/brick2/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49153 Y &nbsp; &nbsp; &nbsp; 7454<br>
              Brick 10.129.40.24:/data/glusterfs/brick2/home &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;49153 Y &nbsp; &nbsp; &nbsp; 19766<br>
              NFS Server on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              2049 Y &nbsp; &nbsp; &nbsp; 7564<br>
              Self-heal Daemon on localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              N/A Y &nbsp; &nbsp; &nbsp; 7569<br>
              NFS Server on 10.129.40.24 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;2049 Y &nbsp; &nbsp; &nbsp; 19788<br>
              Self-heal Daemon on 10.129.40.24 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;N/A Y &nbsp; &nbsp; &nbsp; 19792<br>
              NFS Server on 10.129.40.22 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;2049 Y &nbsp; &nbsp; &nbsp; 28004<br>
              Self-heal Daemon on 10.129.40.22 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;N/A Y &nbsp; &nbsp; &nbsp; 28008<br>
              NFS Server on 10.129.40.23 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;2049 Y &nbsp; &nbsp; &nbsp; 7464<br>
              Self-heal Daemon on 10.129.40.23 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
              &nbsp;N/A Y &nbsp; &nbsp; &nbsp; 7468<br>
              <br>
              There are no active volume tasks<br>
              <br>
              <br>
              *The gluster volumes are mounted using the glusterfs-fuse
              package (glusterfs-fuse-3.4.0-3.el6.x86_64) on the clients
              like so:<br>
              /sbin/mount.glusterfs 10.129.40.21:home /home<br>
              /sbin/mount.glusterfs 10.129.40.21:scratch /scratch<br>
              <br>
              <br>
              *Gluster packages on Gluster servers:<br>
              glusterfs-server-3.4.0-3.el6.x86_64<br>
              glusterfs-libs-3.4.0-8.el6.x86_64<br>
              glusterfs-3.4.0-3.el6.x86_64<br>
              glusterfs-geo-replication-3.4.0-3.el6.x86_64<br>
              glusterfs-fuse-3.4.0-3.el6.x86_64<br>
              glusterfs-rdma-3.4.0-3.el6.x86_64<br>
              <br>
              <br>
              *Gluster packages on clients:<br>
              glusterfs-fuse-3.4.0-3.el6.x86_64<br>
              glusterfs-3.4.0-3.el6.x86_64<br>
              <br>
              <br>
              All clients and servers are running the same OS and
              kernel:<br>
              <br>
              *uname -a:<br>
              Linux &lt;hostname&gt; 2.6.32-358.6.1.el6.x86_64 #1 SMP
              Tue Apr 23 16:15:13 CDT 2013 x86_64 x86_64 x86_64
              GNU/Linux<br>
              <br>
              *cat /etc/redhat-release :<br>
              Scientific Linux release 6.3 (Carbon)<br>
              <br>
              <br>
              Thanks for your help,<br>
              <br>
              Neil Van Lysel<br>
              UNIX Systems Administrator<br>
              Center for High Throughput Computing<br>
              University of Wisconsin - Madison<br>
              <br>
              <br>
              <br>
              _______________________________________________<br>
              Gluster-users mailing list<br>
              <a moz-do-not-send="true"
                href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
              <a moz-do-not-send="true"
                href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"
                target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a><br>
            </blockquote>
          </div>
          <br>
          <br clear="all">
          <div><br>
          </div>
          -- <br>
          Justin Dossey<br>
          CTO, PodOmatic
          <div><br>
          </div>
        </div>
        <br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <br>
        <pre wrap="">_______________________________________________
Gluster-users mailing list
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a moz-do-not-send="true" class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
      </blockquote>
      <br>
      <br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </body>
</html>