<p dir="ltr">Could you also provide the output of this command:<br>
$ mount | column -t<br><br></p>
<p dir="ltr">--<br>
Gene Liverman<br>
Systems Administrator<br>
Information Technology Services<br>
University of West Georgia<br>
<a href="mailto:gliverma@westga.edu">gliverma@westga.edu</a></p>
<p dir="ltr">ITS: Making Technology Work for You!<br></p>
<p dir="ltr">This e-mail and any attachments may contain confidential and privileged information. If you are not the intended recipient, please notify the sender immediately by return mail, delete this message, and destroy any copies. Any dissemination or use of this information by a person other than the intended recipient is unauthorized and may be illegal or actionable by law.<br>
    </p>
<div class="gmail_quote">On Oct 23, 2014 10:07 AM, &quot;Niels de Vos&quot; &lt;<a href="mailto:ndevos@redhat.com">ndevos@redhat.com</a>&gt; wrote:<br type="attribution"><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">The only way I can manage to hit this issue too, is by mounting an<br>
NFS-export on the Gluster server that starts the Gluster/NFS process.<br>
There is not crash happening on my side, Gluster/NFS just fails to<br>
start.<br>
<br>
Steps to reproduce:<br>
1. mount -t nfs nas.example.net:/export /mnt<br>
2. systemctl start glusterd<br>
<br>
After this, the error about being unable to register NLM4 is in<br>
/var/log/glusterfs/nfs.log.<br>
<br>
This is expected, because the Linux kernel NFS-server requires an NLM<br>
service in portmap/rpcbind (nlockmgr). You can verify what process<br>
occupies the service slot in rpcbind like this:<br>
<br>
1. list the rpc-programs and their port numbers<br>
<br>
    # rpcinfo -p<br>
<br>
2. check the process that listens on the TCP-port for nlockmgr (port<br>
   32770 was returned by the command from point 1)<br>
<br>
    # netstat -nlpt | grep -w 32770<br>
<br>
If the right column in the output lists &#39;glusterfs&#39;, then the<br>
Gluster/NFS process could register successfully and is handling the NLM4<br>
calls. However, if the right columnt contains a single &#39;-&#39;, the Linux<br>
kernel module &#39;lockd&#39; is handling the NLM4 calls. Gluster/NFS can not<br>
work together with the Linux kernel NFS-client (mountpoint) or the Linux<br>
kernel NFS-server.<br>
<br>
Does this help? If something is unclear, post the output  if the above<br>
commands and tell us what further details you want to see clarified.<br>
<br>
Cheers,<br>
Niels<br>
<br>
<br>
On Mon, Oct 20, 2014 at 12:53:46PM +0200, Demeter Tibor wrote:<br>
&gt;<br>
&gt; Hi,<br>
&gt;<br>
&gt; Thank you for you reply.<br>
&gt;<br>
&gt; I did your recommendations, but there are no changes.<br>
&gt;<br>
&gt; In the nfs.log there are no new things.<br>
&gt;<br>
&gt;<br>
&gt; [root@node0 glusterfs]# reboot<br>
&gt; Connection to 172.16.0.10 closed by remote host.<br>
&gt; Connection to 172.16.0.10 closed.<br>
&gt; [tdemeter@sirius-31 ~]$ ssh <a href="mailto:root@172.16.0.10">root@172.16.0.10</a><br>
&gt; <a href="mailto:root@172.16.0.10">root@172.16.0.10</a>&#39;s password:<br>
&gt; Last login: Mon Oct 20 11:02:13 2014 from 192.168.133.106<br>
&gt; [root@node0 ~]# systemctl status nfs.target<br>
&gt; nfs.target - Network File System Server<br>
&gt;    Loaded: loaded (/usr/lib/systemd/system/nfs.target; disabled)<br>
&gt;    Active: inactive (dead)<br>
&gt;<br>
&gt; [root@node0 ~]# gluster volume status engine<br>
&gt; Status of volume: engine<br>
&gt; Gluster process                                               Port    Online  Pid<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; Brick gs00.itsmart.cloud:/gluster/engine0             50160   Y       3271<br>
&gt; Brick gs01.itsmart.cloud:/gluster/engine1             50160   Y       595<br>
&gt; NFS Server on localhost                                       N/A     N       N/A<br>
&gt; Self-heal Daemon on localhost                         N/A     Y       3286<br>
&gt; NFS Server on gs01.itsmart.cloud                      2049    Y       6951<br>
&gt; Self-heal Daemon on gs01.itsmart.cloud                        N/A     Y       6958<br>
&gt;<br>
&gt; Task Status of Volume engine<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; There are no active volume tasks<br>
&gt;<br>
&gt; [root@node0 ~]# systemctl status<br>
&gt; Display all 262 possibilities? (y or n)<br>
&gt; [root@node0 ~]# systemctl status nfs-lock<br>
&gt; nfs-lock.service - NFS file locking service.<br>
&gt;    Loaded: loaded (/usr/lib/systemd/system/nfs-lock.service; enabled)<br>
&gt;    Active: inactive (dead)<br>
&gt;<br>
&gt; [root@node0 ~]# systemctl stop nfs-lock<br>
&gt; [root@node0 ~]# systemctl restart gluster<br>
&gt; glusterd.service    glusterfsd.service  gluster.mount<br>
&gt; [root@node0 ~]# systemctl restart gluster<br>
&gt; glusterd.service    glusterfsd.service  gluster.mount<br>
&gt; [root@node0 ~]# systemctl restart glusterfsd.service<br>
&gt; [root@node0 ~]# systemctl restart glusterd.service<br>
&gt; [root@node0 ~]# gluster volume status engine<br>
&gt; Status of volume: engine<br>
&gt; Gluster process                                               Port    Online  Pid<br>
&gt; ------------------------------------------------------------------------------<br>
&gt; Brick gs00.itsmart.cloud:/gluster/engine0             50160   Y       5140<br>
&gt; Brick gs01.itsmart.cloud:/gluster/engine1             50160   Y       2037<br>
&gt; NFS Server on localhost                                       N/A     N       N/A<br>
&gt; Self-heal Daemon on localhost                         N/A     N       N/A<br>
&gt; NFS Server on gs01.itsmart.cloud                      2049    Y       6951<br>
&gt; Self-heal Daemon on gs01.itsmart.cloud                        N/A     Y       6958<br>
&gt;<br>
&gt;<br>
&gt; Any other idea?<br>
&gt;<br>
&gt; Tibor<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt;<br>
&gt; ----- Eredeti üzenet -----<br>
&gt; &gt; On Mon, Oct 20, 2014 at 09:04:2.8AM +0200, Demeter Tibor wrote:<br>
&gt; &gt; &gt; Hi,<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; This is the full nfs.log after delete &amp; reboot.<br>
&gt; &gt; &gt; It is refers to portmap registering problem.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [root@node0 glusterfs]# cat nfs.log<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.221136] I [glusterfsd.c:1959:main]<br>
&gt; &gt; &gt; 0-/usr/sbin/glusterfs: Started running /usr/sbin/glusterfs version 3.5.2<br>
&gt; &gt; &gt; (/usr/sbin/glusterfs -s localhost --volfile-id gluster/nfs -p<br>
&gt; &gt; &gt; /var/lib/glusterd/nfs/run/nfs.pid -l /var/log/glusterfs/nfs.log -S<br>
&gt; &gt; &gt; /var/run/567e0bba7ad7102eae3049e2ad6c3ed7.socket)<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.224444] I [socket.c:3561:socket_init]<br>
&gt; &gt; &gt; 0-socket.glusterfsd: SSL support is NOT enabled<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.224475] I [socket.c:3576:socket_init]<br>
&gt; &gt; &gt; 0-socket.glusterfsd: using system polling thread<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.224654] I [socket.c:3561:socket_init] 0-glusterfs: SSL<br>
&gt; &gt; &gt; support is NOT enabled<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.224667] I [socket.c:3576:socket_init] 0-glusterfs:<br>
&gt; &gt; &gt; using system polling thread<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.235876] I<br>
&gt; &gt; &gt; [rpcsvc.c:2127:rpcsvc_set_outstanding_rpc_limit] 0-rpc-service: Configured<br>
&gt; &gt; &gt; rpc.outstanding-rpc-limit with value 16<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.254087] I [socket.c:3561:socket_init]<br>
&gt; &gt; &gt; 0-socket.nfs-server: SSL support is NOT enabled<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.254116] I [socket.c:3576:socket_init]<br>
&gt; &gt; &gt; 0-socket.nfs-server: using system polling thread<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.255241] I [socket.c:3561:socket_init]<br>
&gt; &gt; &gt; 0-socket.nfs-server: SSL support is NOT enabled<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.255264] I [socket.c:3576:socket_init]<br>
&gt; &gt; &gt; 0-socket.nfs-server: using system polling thread<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.257279] I [socket.c:3561:socket_init]<br>
&gt; &gt; &gt; 0-socket.nfs-server: SSL support is NOT enabled<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.257315] I [socket.c:3576:socket_init]<br>
&gt; &gt; &gt; 0-socket.nfs-server: using system polling thread<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.258135] I [socket.c:3561:socket_init] 0-socket.NLM:<br>
&gt; &gt; &gt; SSL support is NOT enabled<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.258157] I [socket.c:3576:socket_init] 0-socket.NLM:<br>
&gt; &gt; &gt; using system polling thread<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.293724] E<br>
&gt; &gt; &gt; [rpcsvc.c:1314:rpcsvc_program_register_portmap] 0-rpc-service: Could not<br>
&gt; &gt; &gt; register with portmap<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.293760] E [nfs.c:332:nfs_init_versions] 0-nfs: Program<br>
&gt; &gt; &gt; NLM4 registration failed<br>
&gt; &gt;<br>
&gt; &gt; The above line suggests that there already is a service registered at<br>
&gt; &gt; portmapper for the NLM4 program/service. This happens when the kernel<br>
&gt; &gt; module &#39;lockd&#39; is loaded. The kernel NFS-client and NFS-server depend on<br>
&gt; &gt; this, but unfortunately it conflicts with the Gluster/nfs server.<br>
&gt; &gt;<br>
&gt; &gt; Could you verify that the module is loaded?<br>
&gt; &gt;  - use &#39;lsmod | grep lockd&#39; to check the modules<br>
&gt; &gt;  - use &#39;rpcinfo | grep nlockmgr&#39; to check the rpcbind registrations<br>
&gt; &gt;<br>
&gt; &gt; Make sure that you do not mount any NFS exports on the Gluster server.<br>
&gt; &gt; Unmount all NFS mounts.<br>
&gt; &gt;<br>
&gt; &gt; You mentioned you are running CentOS-7, which is systemd based. You<br>
&gt; &gt; should be able to stop any conflicting NFS services like this:<br>
&gt; &gt;<br>
&gt; &gt;  # systemctl stop nfs-lock.service<br>
&gt; &gt;  # systemctl stop nfs.target<br>
&gt; &gt;  # systemctl disable nfs.target<br>
&gt; &gt;<br>
&gt; &gt; If all these services cleanup themselves, you should be able to start<br>
&gt; &gt; the Gluster/nfs service:<br>
&gt; &gt;<br>
&gt; &gt;   # systemctl restart glusterd.service<br>
&gt; &gt;<br>
&gt; &gt; In case some bits are still lingering around, it might be easier to<br>
&gt; &gt; reboot after disabling the &#39;nfs.target&#39;.<br>
&gt; &gt;<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.293771] E [nfs.c:1312:init] 0-nfs: Failed to<br>
&gt; &gt; &gt; initialize protocols<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.293777] E [xlator.c:403:xlator_init] 0-nfs-server:<br>
&gt; &gt; &gt; Initialization of volume &#39;nfs-server&#39; failed, review your volfile again<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.293783] E [graph.c:307:glusterfs_graph_init]<br>
&gt; &gt; &gt; 0-nfs-server: initializing translator failed<br>
&gt; &gt; &gt; [2014-10-20 06:48:43.293789] E [graph.c:502:glusterfs_graph_activate]<br>
&gt; &gt; &gt; 0-graph: init failed<br>
&gt; &gt; &gt; pending frames:<br>
&gt; &gt; &gt; frame : type(0) op(0)<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; patchset: git://<a href="http://git.gluster.com/glusterfs.git" target="_blank">git.gluster.com/glusterfs.git</a><br>
&gt; &gt; &gt; signal received: 11<br>
&gt; &gt; &gt; time of crash: 2014-10-20 06:48:43configuration details:<br>
&gt; &gt; &gt; argp 1<br>
&gt; &gt; &gt; backtrace 1<br>
&gt; &gt; &gt; dlfcn 1<br>
&gt; &gt; &gt; fdatasync 1<br>
&gt; &gt; &gt; libpthread 1<br>
&gt; &gt; &gt; llistxattr 1<br>
&gt; &gt; &gt; setfsid 1<br>
&gt; &gt; &gt; spinlock 1<br>
&gt; &gt; &gt; epoll.h 1<br>
&gt; &gt; &gt; xattr.h 1<br>
&gt; &gt; &gt; st_atim.tv_nsec 1<br>
&gt; &gt; &gt; package-string: glusterfs 3.5.2<br>
&gt; &gt; &gt; [root@node0 glusterfs]# systemctl status portma<br>
&gt; &gt; &gt; portma.service<br>
&gt; &gt; &gt;    Loaded: not-found (Reason: No such file or directory)<br>
&gt; &gt; &gt;    Active: inactive (dead)<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Also I have checked the rpcbind service.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [root@node0 glusterfs]# systemctl status rpcbind.service<br>
&gt; &gt; &gt; rpcbind.service - RPC bind service<br>
&gt; &gt; &gt;    Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; enabled)<br>
&gt; &gt; &gt;    Active: active (running) since h 2014-10-20 08:48:39 CEST; 2min 52s ago<br>
&gt; &gt; &gt;   Process: 1940 ExecStart=/sbin/rpcbind -w ${RPCBIND_ARGS} (code=exited,<br>
&gt; &gt; &gt;   status=0/SUCCESS)<br>
&gt; &gt; &gt;  Main PID: 1946 (rpcbind)<br>
&gt; &gt; &gt;    CGroup: /system.slice/rpcbind.service<br>
&gt; &gt; &gt;            └─1946 /sbin/rpcbind -w<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; okt 20 08:48:39 node0.itsmart.cloud systemd[1]: Starting RPC bind<br>
&gt; &gt; &gt; service...<br>
&gt; &gt; &gt; okt 20 08:48:39 node0.itsmart.cloud systemd[1]: Started RPC bind service.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; The restart does not solve this problem.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; I think this is the problem. Why are &quot;exited&quot; the portmap status?<br>
&gt; &gt;<br>
&gt; &gt; The &#39;portmap&#39; service has been replaced with &#39;rpcbind&#39; since RHEL-6.<br>
&gt; &gt; They have the same functionality, &#39;rpcbind&#39; just happens to be the newer<br>
&gt; &gt; version.<br>
&gt; &gt;<br>
&gt; &gt; Did you file a bug for this already? As Vijay mentions, this crash seems<br>
&gt; &gt; to happen because the Gluster/nfs service fails to initialize correctly<br>
&gt; &gt; and then fails to cleanup correctly. The cleanup should get fixed, and<br>
&gt; &gt; we should also give an easier to understand error message.<br>
&gt; &gt;<br>
&gt; &gt; Thanks,<br>
&gt; &gt; Niels<br>
&gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; On node1 is ok:<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; [root@node1 ~]# systemctl status rpcbind.service<br>
&gt; &gt; &gt; rpcbind.service - RPC bind service<br>
&gt; &gt; &gt;    Loaded: loaded (/usr/lib/systemd/system/rpcbind.service; enabled)<br>
&gt; &gt; &gt;    Active: active (running) since p 2014-10-17 19:15:21 CEST; 2 days ago<br>
&gt; &gt; &gt;  Main PID: 1963 (rpcbind)<br>
&gt; &gt; &gt;    CGroup: /system.slice/rpcbind.service<br>
&gt; &gt; &gt;            └─1963 /sbin/rpcbind -w<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; okt 17 19:15:21 node1.itsmart.cloud systemd[1]: Starting RPC bind<br>
&gt; &gt; &gt; service...<br>
&gt; &gt; &gt; okt 17 19:15:21 node1.itsmart.cloud systemd[1]: Started RPC bind service.<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Thanks in advance<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Tibor<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; ----- Eredeti üzenet -----<br>
&gt; &gt; &gt; &gt; On 10/19/2014 06:56 PM, Niels de Vos wrote:<br>
&gt; &gt; &gt; &gt; &gt; On Sat, Oct 18, 2014 at 01:24:12PM +0200, Demeter Tibor wrote:<br>
&gt; &gt; &gt; &gt; &gt;&gt; Hi,<br>
&gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt;&gt; [root@node0 ~]# tail -n 20 /var/log/glusterfs/nfs.log<br>
&gt; &gt; &gt; &gt; &gt;&gt; [2014-10-18 07:41:06.136035] E [graph.c:307:glusterfs_graph_init]<br>
&gt; &gt; &gt; &gt; &gt;&gt; 0-nfs-server: initializing translator failed<br>
&gt; &gt; &gt; &gt; &gt;&gt; [2014-10-18 07:41:06.136040] E [graph.c:502:glusterfs_graph_activate]<br>
&gt; &gt; &gt; &gt; &gt;&gt; 0-graph: init failed<br>
&gt; &gt; &gt; &gt; &gt;&gt; pending frames:<br>
&gt; &gt; &gt; &gt; &gt;&gt; frame : type(0) op(0)<br>
&gt; &gt; &gt; &gt; &gt;&gt;<br>
&gt; &gt; &gt; &gt; &gt;&gt; patchset: git://<a href="http://git.gluster.com/glusterfs.git" target="_blank">git.gluster.com/glusterfs.git</a><br>
&gt; &gt; &gt; &gt; &gt;&gt; signal received: 11<br>
&gt; &gt; &gt; &gt; &gt;&gt; time of crash: 2014-10-18 07:41:06configuration details:<br>
&gt; &gt; &gt; &gt; &gt;&gt; argp 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; backtrace 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; dlfcn 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; fdatasync 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; libpthread 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; llistxattr 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; setfsid 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; spinlock 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; epoll.h 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; xattr.h 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; st_atim.tv_nsec 1<br>
&gt; &gt; &gt; &gt; &gt;&gt; package-string: glusterfs 3.5.2<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; &gt; This definitely is a gluster/nfs issue. For whatever reasone, the<br>
&gt; &gt; &gt; &gt; &gt; gluster/nfs server crashes :-/ The log does not show enough details,<br>
&gt; &gt; &gt; &gt; &gt; some more lines before this are needed.<br>
&gt; &gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; I wonder if the crash is due to a cleanup after the translator<br>
&gt; &gt; &gt; &gt; initialization failure. The complete logs might help in understanding<br>
&gt; &gt; &gt; &gt; why the initialization failed.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; -Vijay<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt;<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users" target="_blank">http://supercolony.gluster.org/mailman/listinfo/gluster-users</a></blockquote></div>