Can you post the complete logs? Is the &#39;Too many levels of symbolic links&#39; (or ELOOP) logs seen in the client log or brick logs?<div><br></div><div>Avati<br><br><div class="gmail_quote">On Tue, Jun 19, 2012 at 11:22 AM, harry mangalam <span dir="ltr">&lt;<a href="mailto:hjmangalam@gmail.com" target="_blank">hjmangalam@gmail.com</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">(Apologies if this already posted, but I recently had to change smtp servers<br>
which scrambled some list permissions, and I haven&#39;t seen it post)<br>
<br>
I set up a 3.3 gluster volume for another sysadmin and he has added it<br>
to his cluster via automount.  It seems to work initially but after some<br>
time (days) he is now regularly seeing this warning:<br>
&quot;Too many levels of symbolic links&quot;<br>
when he tries to traverse the mounted filesystems.<br>
<br>
$ df: `/share/gl&#39;: Too many levels of symbolic links<br>
<br>
It&#39;s supposed to be mounted on /share/gl with a symlink to /gl<br>
ie:  /gl -&gt; /share/gl<br>
<br>
I&#39;ve been using gluster with static mounts on a cluster and have never<br>
seen this behavior; google does not seem to record anyone else seeing<br>
this with gluster. However, I note that the &quot;Howto Automount GlusterFS&quot;<br>
page at<br>
<a href="http://www.gluster.org/community/documentation/index.php/Howto_Automount_GlusterFS" target="_blank">http://www.gluster.org/community/documentation/index.php/Howto_Automount_GlusterFS</a><br>
has been deleted. Is automounting no longer supported?<br>
<br>
His auto.master file is as follows (sorry for the wrapping):<br>
<br>
    w1<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,retrans=10,timeo=20,hard,lock,defaults,noatime,async  10.1.50.2:/&amp;<br>
    w2<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,retrans=10,timeo=20,hard,lock,defaults,noatime,async  10.1.50.3:/&amp;<br>
    mathbio<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,retrans=10,timeo=20,hard,lock,defaults,noatime,async  10.1.50.2:/&amp;<br>
    tw<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,retrans=10,timeo=20,hard,lock,defaults,noatime,async  10.1.50.4:/&amp;<br>
    shwstore<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,lock,defaults,noatime,async<br>
shwraid.biomol.uci.edu:/&amp;<br>
    djtstore<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,lock,defaults,noatime,async<br>
djtraid.biomol.uci.edu:/&amp;<br>
    djtstore2<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,lock,defaults,noatime,async<br>
djtraid2.biomol.uci.edu:/djtraid2:/&amp;<br>
    djtstore3<br>
-rw,intr,bg,v3,rsize=16384,wsize=16384,lock,defaults,noatime,async<br>
djtraid3.biomol.uci.edu:/djtraid3:/&amp;<br>
    kevin<br>
-rw,intr,bg,rsize=65520,wsize=65520,retrans=10,timeo=20,hard,lock,defaults,noatime,async  10.2.255.230:/&amp;<br>
    samlab<br>
-rw,intr,bg,rsize=65520,wsize=65520,retrans=10,timeo=20,hard,lock,defaults,noatime,async  10.2.255.237:/&amp;<br>
    new-data<br>
-rw,intr,bg,rsize=65520,wsize=65520,retrans=10,timeo=20,hard,lock,defaults,noatime,async  nas-1-1.ib:/&amp;<br>
    gl        -fstype=glusterfs<br>
bs1:/&amp;<br>
<br>
<br>
He has never seen this behavior with the other automounted fs&#39;s.  The<br>
system logs from the affected nodes do not have any gluster strings that<br>
appear to be relevant, but /var/log/glusterfs/share-gl.log ends with<br>
this series of odd lines:<br>
<br>
[2012-06-18 08:57:38.964243] I<br>
[client-handshake.c:453:client_set_lk_version_cbk] 0-gl-client-6: Server<br>
lk version = 1<br>
[2012-06-18 08:57:38.964507] I [fuse-bridge.c:3376:fuse_init]<br>
0-glusterfs-fuse: FUSE inited with protocol versions: glusterfs 7.13<br>
kernel 7.16<br>
[2012-06-18 09:16:48.692701] W<br>
[client3_1-fops.c:2630:client3_1_lookup_cbk] 0-gl-client-4: remote<br>
operation failed: Stale NFS file handle.<br>
Path: /tdlong/RILseq/makebam.commands<br>
(90193380-d107-4b6c-b02f-ab53a0f65148)<br>
[2012-06-18 09:16:48.693030] W<br>
[client3_1-fops.c:2630:client3_1_lookup_cbk] 0-gl-client-4: remote<br>
operation failed: Stale NFS file handle.<br>
Path: /tdlong/RILseq/makebam.commands<br>
(90193380-d107-4b6c-b02f-ab53a0f65148)<br>
[2012-06-18 09:16:48.693165] W<br>
[client3_1-fops.c:2630:client3_1_lookup_cbk] 0-gl-client-4: remote<br>
operation failed: Stale NFS file handle.<br>
Path: /tdlong/RILseq/makebam.commands<br>
(90193380-d107-4b6c-b02f-ab53a0f65148)<br>
[2012-06-18 09:16:48.693394] W<br>
[client3_1-fops.c:2630:client3_1_lookup_cbk] 0-gl-client-4: remote<br>
operation failed: Stale NFS file handle.<br>
Path: /tdlong/RILseq/makebam.commands<br>
(90193380-d107-4b6c-b02f-ab53a0f65148)<br>
[2012-06-18 10:56:32.756551] I [fuse-bridge.c:4037:fuse_thread_proc]<br>
0-fuse: unmounting /share/gl<br>
[2012-06-18 10:56:32.757148] W [glusterfsd.c:816:cleanup_and_exit]<br>
(--&gt;/lib64/libc.so.6(clone+0x6d) [0x3829ed44bd]<br>
(--&gt;/lib64/libpthread.so.0 [0x382aa0673d]<br>
(--&gt;/usr/sbin/glusterfs(glusterfs_sigwaiter+0x17c) [0x40524c]))) 0-:<br>
received signum (15), shutting down<br>
<br>
Any hints as to why this is happening?<br>
<br>
<br>
<br>
<br>
_______________________________________________<br>
Gluster-users mailing list<br>
<a href="mailto:Gluster-users@gluster.org">Gluster-users@gluster.org</a><br>
<a href="http://gluster.org/cgi-bin/mailman/listinfo/gluster-users" target="_blank">http://gluster.org/cgi-bin/mailman/listinfo/gluster-users</a><br>
</blockquote></div><br></div>