<html>
  <head>
    <meta content="text/html; charset=ISO-8859-1"
      http-equiv="Content-Type">
  </head>
  <body text="#000000" bgcolor="#FFFFFF">
    <br>
    <div class="moz-cite-prefix">On 11/10/2014 11:47 PM, A F wrote:<br>
    </div>
    <blockquote cite="mid:54610134.9080505@cartell.ie" type="cite">Hello,
      <br>
      <br>
      I have two servers, 192.168.0.10 and 192.168.2.10. I'm using
      gluster 3.6.1 (installed from gluster repo) on AWS Linux. Both
      servers are completely reachable in LAN.
      <br>
      # rpm -qa|grep gluster
      <br>
      glusterfs-3.6.1-1.el6.x86_64
      <br>
      glusterfs-server-3.6.1-1.el6.x86_64
      <br>
      glusterfs-libs-3.6.1-1.el6.x86_64
      <br>
      glusterfs-api-3.6.1-1.el6.x86_64
      <br>
      glusterfs-cli-3.6.1-1.el6.x86_64
      <br>
      glusterfs-fuse-3.6.1-1.el6.x86_64
      <br>
      <br>
      These are the commands I ran:
      <br>
      # gluster peer probe 192.168.2.10
      <br>
      # gluster volume create aloha replica 2 transport tcp
      192.168.0.10:/var/aloha 192.168.2.10:/var/aloha force
      <br>
      # gluster volume start aloha
      <br>
      # gluster volume set aloha network.ping-timeout 5
      <br>
      # gluster volume set aloha nfs.disable on
      <br>
      <br>
      Problem number 1:
      <br>
      tail -f /var/log/glusterfs/etc-glusterfs-glusterd.vol.log shows
      log cluttering with:
      <br>
      [2014-11-10 17:41:26.328796] W [socket.c:611:__socket_rwv]
      0-management: readv on
      /var/run/38c520c774793c9cdae8ace327512027.socket failed (Invalid
      argument)
      <br>
      this happens every 3 seconds on both servers. It is related to NFS
      and probably rpcbind, but I absolutely want them disabled. As you
      see, I've set gluster to disable nfs - why doesn't it keep quiet
      about it then?
      <br>
      <br>
      Problem number 2:
      <br>
      in fstab on server 192.168.0.10:&nbsp;&nbsp; 192.168.0.10:/aloha
      /var/www/hawaii &nbsp;&nbsp;&nbsp;&nbsp; glusterfs&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; defaults,_netdev&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0 0
      <br>
      in fstab on server 192.168.2.10:&nbsp;&nbsp; 192.168.2.10:/aloha
      /var/www/hawaii&nbsp;&nbsp; &nbsp;&nbsp; glusterfs&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; defaults,_netdev&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 0 0
      <br>
      <br>
      If I shutdown one of the servers (192.168.2.10), and I reboot the
      remaining one (192.168.0.10), it won't come up as fast as it
      should. It lags a few minutes waiting for gluster. After it
      eventually starts, mount point is not mounted and volume is
      stopped:
      <br>
      # gluster volume status
      <br>
      Status of volume: aloha
      <br>
      Gluster process&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; Port
      Online&nbsp; Pid
      <br>
------------------------------------------------------------------------------
      <br>
      Brick 192.168.0.10:/var/aloha&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A
      N&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A
      <br>
      Self-heal Daemon on localhost&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A
      N&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A
      <br>
      <br>
      Task Status of Volume aloha
      <br>
------------------------------------------------------------------------------
      <br>
      There are no active volume tasks
      <br>
      <br>
      This didn't happen before, so fine, I first have to stop the
      volume and then start it again. It now shows as online:
      <br>
      Brick 192.168.0.10:/var/aloha&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 49155
      Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 3473
      <br>
      Self-heal Daemon on localhost&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; N/A
      Y&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; 3507
      <br>
      <br>
      # time mount -a
      <br>
      real&nbsp;&nbsp;&nbsp; 2m7.307s
      <br>
      <br>
      # time mount -t glusterfs 192.168.0.10:/aloha /var/www/hawaii
      <br>
      real&nbsp;&nbsp;&nbsp; 2m7.365s
      <br>
      <br>
      # strace mount -t glusterfs 192.168.0.10:/aloha /var/www/hawaii
      <br>
      (attached)
      <br>
      <br>
      # tail /var/log/glusterfs/* -f|grep -v readv
      <br>
      (attached)
      <br>
      <br>
      I've done this setup before, so I'm amazed it doesn't work. I even
      have it in production at the moment, with the same options and
      setup, and for example I'm not getting readv errors. I'm unable to
      test the mount part though, but I feel I have covered it way back
      when I was testing the environment.
      <br>
      Any help is kindly appreciated.
      <br>
    </blockquote>
    CC glusterd folks<br>
    <br>
    Pranith<br>
    <blockquote cite="mid:54610134.9080505@cartell.ie" type="cite"><br>
      <fieldset class="mimeAttachmentHeader"></fieldset>
      <br>
      <pre wrap="">_______________________________________________
Gluster-users mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
    </blockquote>
    <br>
  </body>
</html>