<html>
  <head>
    <meta content="text/html; charset=windows-1252"
      http-equiv="Content-Type">
  </head>
  <body bgcolor="#FFFFFF" text="#000000">
    Hi,<br>
    <br>
    So, can anyone try and reproduce this problem? I've downgraded to
    v3.5.2, which I'm using in prod, and I get the same behavior.<br>
    Steps to reproduce:<br>
    1. probe server2, create and start volume<br>
    2. do not mount volume<br>
    3. reboot/poweroff server2; or add server1 to its iptables (with -j
    DROP, not -j REJECT)<br>
    4. on server1 (while server2 is rebooting or dropping traffic from
    server1): time mount -t glusterfs server1:/volume /some/path<br>
    <br>
    PS: with -j REJECT it mounts instantly. with -j DROP it always waits
    2mins 7secs<br>
    Thanks!<br>
     <br>
    <div class="moz-cite-prefix">On 11/11/2014 01:19, Pranith Kumar
      Karampuri wrote:<br>
    </div>
    <blockquote cite="mid:54616436.2000707@redhat.com" type="cite">
      <meta content="text/html; charset=windows-1252"
        http-equiv="Content-Type">
      <br>
      <div class="moz-cite-prefix">On 11/10/2014 11:47 PM, A F wrote:<br>
      </div>
      <blockquote cite="mid:54610134.9080505@cartell.ie" type="cite">Hello,

        <br>
        <br>
        I have two servers, 192.168.0.10 and 192.168.2.10. I'm using
        gluster 3.6.1 (installed from gluster repo) on AWS Linux. Both
        servers are completely reachable in LAN. <br>
        # rpm -qa|grep gluster <br>
        glusterfs-3.6.1-1.el6.x86_64 <br>
        glusterfs-server-3.6.1-1.el6.x86_64 <br>
        glusterfs-libs-3.6.1-1.el6.x86_64 <br>
        glusterfs-api-3.6.1-1.el6.x86_64 <br>
        glusterfs-cli-3.6.1-1.el6.x86_64 <br>
        glusterfs-fuse-3.6.1-1.el6.x86_64 <br>
        <br>
        These are the commands I ran: <br>
        # gluster peer probe 192.168.2.10 <br>
        # gluster volume create aloha replica 2 transport tcp
        192.168.0.10:/var/aloha 192.168.2.10:/var/aloha force <br>
        # gluster volume start aloha <br>
        # gluster volume set aloha network.ping-timeout 5 <br>
        # gluster volume set aloha nfs.disable on <br>
        <br>
        Problem number 1: <br>
        tail -f /var/log/glusterfs/etc-glusterfs-glusterd.vol.log shows
        log cluttering with: <br>
        [2014-11-10 17:41:26.328796] W [socket.c:611:__socket_rwv]
        0-management: readv on
        /var/run/38c520c774793c9cdae8ace327512027.socket failed (Invalid
        argument) <br>
        this happens every 3 seconds on both servers. It is related to
        NFS and probably rpcbind, but I absolutely want them disabled.
        As you see, I've set gluster to disable nfs - why doesn't it
        keep quiet about it then? <br>
        <br>
        Problem number 2: <br>
        in fstab on server 192.168.0.10:   192.168.0.10:/aloha
        /var/www/hawaii      glusterfs       defaults,_netdev        0 0
        <br>
        in fstab on server 192.168.2.10:   192.168.2.10:/aloha
        /var/www/hawaii      glusterfs       defaults,_netdev        0 0
        <br>
        <br>
        If I shutdown one of the servers (192.168.2.10), and I reboot
        the remaining one (192.168.0.10), it won't come up as fast as it
        should. It lags a few minutes waiting for gluster. After it
        eventually starts, mount point is not mounted and volume is
        stopped: <br>
        # gluster volume status <br>
        Status of volume: aloha <br>
        Gluster process                                         Port
        Online  Pid <br>
        ------------------------------------------------------------------------------

        <br>
        Brick 192.168.0.10:/var/aloha                           N/A
        N       N/A <br>
        Self-heal Daemon on localhost                           N/A
        N       N/A <br>
        <br>
        Task Status of Volume aloha <br>
        ------------------------------------------------------------------------------

        <br>
        There are no active volume tasks <br>
        <br>
        This didn't happen before, so fine, I first have to stop the
        volume and then start it again. It now shows as online: <br>
        Brick 192.168.0.10:/var/aloha                           49155
        Y       3473 <br>
        Self-heal Daemon on localhost                           N/A
        Y       3507 <br>
        <br>
        # time mount -a <br>
        real    2m7.307s <br>
        <br>
        # time mount -t glusterfs 192.168.0.10:/aloha /var/www/hawaii <br>
        real    2m7.365s <br>
        <br>
        # strace mount -t glusterfs 192.168.0.10:/aloha /var/www/hawaii
        <br>
        (attached) <br>
        <br>
        # tail /var/log/glusterfs/* -f|grep -v readv <br>
        (attached) <br>
        <br>
        I've done this setup before, so I'm amazed it doesn't work. I
        even have it in production at the moment, with the same options
        and setup, and for example I'm not getting readv errors. I'm
        unable to test the mount part though, but I feel I have covered
        it way back when I was testing the environment. <br>
        Any help is kindly appreciated. <br>
      </blockquote>
      CC glusterd folks<br>
      <br>
      Pranith<br>
      <blockquote cite="mid:54610134.9080505@cartell.ie" type="cite"><br>
        <fieldset class="mimeAttachmentHeader"></fieldset>
        <br>
        <pre wrap="">_______________________________________________
Gluster-users mailing list
<a moz-do-not-send="true" class="moz-txt-link-abbreviated" href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a>
<a moz-do-not-send="true" class="moz-txt-link-freetext" href="http://supercolony.gluster.org/mailman/listinfo/gluster-users">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></pre>
      </blockquote>
      <br>
    </blockquote>
  </body>
</html>