<div><br></div>This brings up an interesting question.  I just had a look on our large cluster (which is using xfs) and i&#39;ve eaten up 98% of my free inodes.  I am mounting the filesystem without any options so i assume i am not using the inode64 option. (i dont believe it is default even on 64bit systems).<div>
<br></div><div>Is gluster giggy with using the inode64 mount option on xfs?  My understanding is as long as the binary is 64bit it shouldnt have any issue (im using 64bit gluster binary i compiled myself).</div><div><br></div>
<div>Anybody have some insight into this?</div><div><br></div><div>liam</div><div><br><div class="gmail_quote">On Thu, Jul 23, 2009 at 2:59 AM, Matthias Saou <span dir="ltr">&lt;<a href="mailto:thias@spam.spam.spam.spam.spam.spam.spam.egg.and.spam.freshrpms.net">thias@spam.spam.spam.spam.spam.spam.spam.egg.and.spam.freshrpms.net</a>&gt;</span> wrote:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Hi,<br>
<br>
Replying to myself with some more details : The servers are 64bit<br>
(x86_64) whereas the clients are 32bit (ix86). It seems like this could<br>
be the cause of this problem...<br>
<br>
<a href="http://oss.sgi.com/archives/xfs/2009-07/msg00044.html" target="_blank">http://oss.sgi.com/archives/xfs/2009-07/msg00044.html</a><br>
<br>
But if the glusterfs client doesn&#39;t know about the original inodes of<br>
the files, then it should be possible to fix, right?<br>
<br>
Matthias<br>
<br>
Matthias Saou wrote :<br>
<div><div></div><div class="h5"><br>
&gt; Hi,<br>
&gt;<br>
&gt; (Note: I have access to the systems referenced in the initial post)<br>
&gt;<br>
&gt; I think I&#39;ve found the problem. It&#39;s the filesystem, XFS, which has<br>
&gt; been mounted with the &quot;inode64&quot; option, as it can&#39;t be mounted without<br>
&gt; since it has been grown to 39TB. I&#39;ve just checked this :<br>
&gt;<br>
&gt; # ls -1 -ai /file/data/cust | sort -n<br>
&gt;<br>
&gt; And the last few lines are like this :<br>
&gt;<br>
&gt; [...]<br>
&gt;  2148235729 cust2<br>
&gt;  2148236297 cust6<br>
&gt;  2148236751 cust5<br>
&gt;  2148236974 cust7<br>
&gt;  2148237729 cust3<br>
&gt;  2148239365 cust4<br>
&gt;  2156210172 cust8<br>
&gt; 61637541899 cust1<br>
&gt; 96636784146 cust9<br>
&gt;<br>
&gt; Note that &quot;cust1&quot; here is the one where the problem has been seen<br>
&gt; initially. I&#39;ve just checked, and the &quot;cust9&quot; directory is affected in<br>
&gt; the exact same way.<br>
&gt;<br>
&gt; So it seems like the glusterfs build being used has problems with 64bit<br>
&gt; inodes. Is this a known limitation? Is it easy to fix or work around?<br>
&gt;<br>
&gt; Matthias<br>
&gt;<br>
&gt; Roger Torrentsgenerós wrote :<br>
&gt;<br>
&gt; &gt;<br>
&gt; &gt; We have 2 servers, let&#39;s name them file01 and file02. They are synced<br>
&gt; &gt; very frequently, so we can assume contents are the same. Then we have<br>
&gt; &gt; lots of clients, everyone of each has two glusterfs mountings, one<br>
&gt; &gt; against every file server.<br>
&gt; &gt;<br>
&gt; &gt; Before you ask, let me say the clients are in a production environment,<br>
&gt; &gt; where I can&#39;t afford any downtime. To make the migration from glusterfs<br>
&gt; &gt; v1.3 to glusterfs v2.0 as smooth as possible, I recompiled the packages<br>
&gt; &gt; to run under glusterfs2 name. Servers are running two instances of the<br>
&gt; &gt; glusterfs daemon, and the old one is to be stopped when all the<br>
&gt; &gt; migration is complete. So you&#39;ll be seeing some glusterfs2 and build<br>
&gt; &gt; dates that may not be normal, but you&#39;ll also see this has nothing to do<br>
&gt; &gt; with this matter.<br>
&gt; &gt;<br>
&gt; &gt; file01 server log:<br>
&gt; &gt;<br>
&gt; &gt; ================================================================================<br>
&gt; &gt; Version      : glusterfs 2.0.1 built on May 26 2009 05:11:51<br>
&gt; &gt; TLA Revision : 5c1d9108c1529a1155963cb1911f8870a674ab5b<br>
&gt; &gt; Starting Time: 2009-07-14 18:07:12<br>
&gt; &gt; Command line : /usr/sbin/glusterfsd2 -p /var/run/glusterfsd2.pid<br>
&gt; &gt; PID          : 6337<br>
&gt; &gt; System name  : Linux<br>
&gt; &gt; Nodename     : file01<br>
&gt; &gt; Kernel Release : 2.6.18-128.1.14.el5<br>
&gt; &gt; Hardware Identifier: x86_64<br>
&gt; &gt;<br>
&gt; &gt; Given volfile:<br>
&gt; &gt; +------------------------------------------------------------------------------+<br>
&gt; &gt;   1: # The data store directory to serve<br>
&gt; &gt;   2: volume filedata-ds<br>
&gt; &gt;   3:   type storage/posix<br>
&gt; &gt;   4:   option directory /file/data<br>
&gt; &gt;   5: end-volume<br>
&gt; &gt;   6:<br>
&gt; &gt;   7: # Make the data store read-only<br>
&gt; &gt;   8: volume filedata-readonly<br>
&gt; &gt;   9:   type testing/features/filter<br>
&gt; &gt; 10:   option read-only on<br>
&gt; &gt; 11:   subvolumes filedata-ds<br>
&gt; &gt; 12: end-volume<br>
&gt; &gt; 13:<br>
&gt; &gt; 14: # Optimize<br>
&gt; &gt; 15: volume filedata-iothreads<br>
&gt; &gt; 16:   type performance/io-threads<br>
&gt; &gt; 17:   option thread-count 64<br>
&gt; &gt; 18: #  option autoscaling on<br>
&gt; &gt; 19: #  option min-threads 16<br>
&gt; &gt; 20: #  option max-threads 256<br>
&gt; &gt; 21:   subvolumes filedata-readonly<br>
&gt; &gt; 22: end-volume<br>
&gt; &gt; 23:<br>
&gt; &gt; 24: # Add readahead feature<br>
&gt; &gt; 25: volume filedata<br>
&gt; &gt; 26:   type performance/read-ahead   # cache per file = (page-count x<br>
&gt; &gt; page-size)<br>
&gt; &gt; 27: #  option page-size 256kB        # 256KB is the default option ?<br>
&gt; &gt; 28: #  option page-count 8           # 16 is default option ?<br>
&gt; &gt; 29:   subvolumes filedata-iothreads<br>
&gt; &gt; 30: end-volume<br>
&gt; &gt; 31:<br>
&gt; &gt; 32: # Main server section<br>
&gt; &gt; 33: volume server<br>
&gt; &gt; 34:   type protocol/server<br>
&gt; &gt; 35:   option transport-type tcp<br>
&gt; &gt; 36:   option transport.socket.listen-port 6997<br>
&gt; &gt; 37:   subvolumes filedata<br>
&gt; &gt; 38:   option auth.addr.filedata.allow 192.168.128.* # streamers<br>
&gt; &gt; 39:   option verify-volfile-checksum off # don&#39;t have clients complain<br>
&gt; &gt; 40: end-volume<br>
&gt; &gt; 41:<br>
&gt; &gt;<br>
&gt; &gt; +------------------------------------------------------------------------------+<br>
&gt; &gt; [2009-07-14 18:07:12] N [glusterfsd.c:1152:main] glusterfs: Successfully<br>
&gt; &gt; started<br>
&gt; &gt;<br>
&gt; &gt; file02 server log:<br>
&gt; &gt;<br>
&gt; &gt; ================================================================================<br>
&gt; &gt; Version      : glusterfs 2.0.1 built on May 26 2009 05:11:51<br>
&gt; &gt; TLA Revision : 5c1d9108c1529a1155963cb1911f8870a674ab5b<br>
&gt; &gt; Starting Time: 2009-06-28 08:42:13<br>
&gt; &gt; Command line : /usr/sbin/glusterfsd2 -p /var/run/glusterfsd2.pid<br>
&gt; &gt; PID          : 5846<br>
&gt; &gt; System name  : Linux<br>
&gt; &gt; Nodename     : file02<br>
&gt; &gt; Kernel Release : 2.6.18-92.1.10.el5<br>
&gt; &gt; Hardware Identifier: x86_64<br>
&gt; &gt;<br>
&gt; &gt; Given volfile:<br>
&gt; &gt; +------------------------------------------------------------------------------+<br>
&gt; &gt;   1: # The data store directory to serve<br>
&gt; &gt;   2: volume filedata-ds<br>
&gt; &gt;   3:   type storage/posix<br>
&gt; &gt;   4:   option directory /file/data<br>
&gt; &gt;   5: end-volume<br>
&gt; &gt;   6:<br>
&gt; &gt;   7: # Make the data store read-only<br>
&gt; &gt;   8: volume filedata-readonly<br>
&gt; &gt;   9:   type testing/features/filter<br>
&gt; &gt; 10:   option read-only on<br>
&gt; &gt; 11:   subvolumes filedata-ds<br>
&gt; &gt; 12: end-volume<br>
&gt; &gt; 13:<br>
&gt; &gt; 14: # Optimize<br>
&gt; &gt; 15: volume filedata-iothreads<br>
&gt; &gt; 16:   type performance/io-threads<br>
&gt; &gt; 17:   option thread-count 64<br>
&gt; &gt; 18: #  option autoscaling on<br>
&gt; &gt; 19: #  option min-threads 16<br>
&gt; &gt; 20: #  option max-threads 256<br>
&gt; &gt; 21:   subvolumes filedata-readonly<br>
&gt; &gt; 22: end-volume<br>
&gt; &gt; 23:<br>
&gt; &gt; 24: # Add readahead feature<br>
&gt; &gt; 25: volume filedata<br>
&gt; &gt; 26:   type performance/read-ahead   # cache per file = (page-count x<br>
&gt; &gt; page-size)<br>
&gt; &gt; 27: #  option page-size 256kB        # 256KB is the default option ?<br>
&gt; &gt; 28: #  option page-count 8           # 16 is default option ?<br>
&gt; &gt; 29:   subvolumes filedata-iothreads<br>
&gt; &gt; 30: end-volume<br>
&gt; &gt; 31:<br>
&gt; &gt; 32: # Main server section<br>
&gt; &gt; 33: volume server<br>
&gt; &gt; 34:   type protocol/server<br>
&gt; &gt; 35:   option transport-type tcp<br>
&gt; &gt; 36:   option transport.socket.listen-port 6997<br>
&gt; &gt; 37:   subvolumes filedata<br>
&gt; &gt; 38:   option auth.addr.filedata.allow 192.168.128.* # streamers<br>
&gt; &gt; 39:   option verify-volfile-checksum off # don&#39;t have clients complain<br>
&gt; &gt; 40: end-volume<br>
&gt; &gt; 41:<br>
&gt; &gt;<br>
&gt; &gt; +------------------------------------------------------------------------------+<br>
&gt; &gt; [2009-06-28 08:42:13] N [glusterfsd.c:1152:main] glusterfs: Successfully<br>
&gt; &gt; started<br>
&gt; &gt;<br>
&gt; &gt; Now let&#39;s pick a random client, for example streamer013, and see its<br>
&gt; &gt; log:<br>
&gt; &gt;<br>
&gt; &gt; ================================================================================<br>
&gt; &gt; Version      : glusterfs 2.0.1 built on May 26 2009 05:23:52<br>
&gt; &gt; TLA Revision : 5c1d9108c1529a1155963cb1911f8870a674ab5b<br>
&gt; &gt; Starting Time: 2009-07-22 18:34:31<br>
&gt; &gt; Command line : /usr/sbin/glusterfs2 --log-level=NORMAL<br>
&gt; &gt; --volfile-server=file02.priv --volfile-server-port=6997 /mnt/file02<br>
&gt; &gt; PID          : 14519<br>
&gt; &gt; System name  : Linux<br>
&gt; &gt; Nodename     : streamer013<br>
&gt; &gt; Kernel Release : 2.6.18-92.1.10.el5PAE<br>
&gt; &gt; Hardware Identifier: i686<br>
&gt; &gt;<br>
&gt; &gt; Given volfile:<br>
&gt; &gt; +------------------------------------------------------------------------------+<br>
&gt; &gt;   1: # filedata<br>
&gt; &gt;   2: volume filedata<br>
&gt; &gt;   3:   type protocol/client<br>
&gt; &gt;   4:   option transport-type tcp<br>
&gt; &gt;   5:   option remote-host file02.priv<br>
&gt; &gt;   6:   option remote-port 6997          # use non default to run in<br>
&gt; &gt; parallel<br>
&gt; &gt;   7:   option remote-subvolume filedata<br>
&gt; &gt;   8: end-volume<br>
&gt; &gt;   9:<br>
&gt; &gt; 10: # Add readahead feature<br>
&gt; &gt; 11: volume readahead<br>
&gt; &gt; 12:   type performance/read-ahead   # cache per file = (page-count x<br>
&gt; &gt; page-size)<br>
&gt; &gt; 13: #  option page-size 256kB        # 256KB is the default option ?<br>
&gt; &gt; 14: #  option page-count 2           # 16 is default option ?<br>
&gt; &gt; 15:   subvolumes filedata<br>
&gt; &gt; 16: end-volume<br>
&gt; &gt; 17:<br>
&gt; &gt; 18: # Add threads<br>
&gt; &gt; 19: volume iothreads<br>
&gt; &gt; 20:   type performance/io-threads<br>
&gt; &gt; 21:   option thread-count 8<br>
&gt; &gt; 22: #  option autoscaling on<br>
&gt; &gt; 23: #  option min-threads 16<br>
&gt; &gt; 24: #  option max-threads 256<br>
&gt; &gt; 25:   subvolumes readahead<br>
&gt; &gt; 26: end-volume<br>
&gt; &gt; 27:<br>
&gt; &gt; 28: # Add IO-Cache feature<br>
&gt; &gt; 29: volume iocache<br>
&gt; &gt; 30:   type performance/io-cache<br>
&gt; &gt; 31:   option cache-size 64MB        # default is 32MB (in 1.3)<br>
&gt; &gt; 32:   option page-size 256KB        # 128KB is default option (in 1.3)<br>
&gt; &gt; 33:   subvolumes iothreads<br>
&gt; &gt; 34: end-volume<br>
&gt; &gt; 35:<br>
&gt; &gt;<br>
&gt; &gt; +------------------------------------------------------------------------------+<br>
&gt; &gt; [2009-07-22 18:34:31] N [glusterfsd.c:1152:main] glusterfs: Successfully<br>
&gt; &gt; started<br>
&gt; &gt; [2009-07-22 18:34:31] N [client-protocol.c:5557:client_setvolume_cbk]<br>
&gt; &gt; filedata: Connected to <a href="http://192.168.128.232:6997" target="_blank">192.168.128.232:6997</a>, attached to remote volume<br>
&gt; &gt; &#39;filedata&#39;.<br>
&gt; &gt; [2009-07-22 18:34:31] N [client-protocol.c:5557:client_setvolume_cbk]<br>
&gt; &gt; filedata: Connected to <a href="http://192.168.128.232:6997" target="_blank">192.168.128.232:6997</a>, attached to remote volume<br>
&gt; &gt; &#39;filedata&#39;.<br>
&gt; &gt;<br>
&gt; &gt; The mountings seem ok:<br>
&gt; &gt;<br>
&gt; &gt; [root@streamer013 /]# mount<br>
&gt; &gt; /dev/mapper/VolGroup00-LogVol00 on / type ext3 (rw)<br>
&gt; &gt; proc on /proc type proc (rw)<br>
&gt; &gt; sysfs on /sys type sysfs (rw)<br>
&gt; &gt; devpts on /dev/pts type devpts (rw,gid=5,mode=620)<br>
&gt; &gt; /dev/sda1 on /boot type ext3 (rw)<br>
&gt; &gt; tmpfs on /dev/shm type tmpfs (rw)<br>
&gt; &gt; none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)<br>
&gt; &gt; glusterfs#file01.priv on /mnt/file01 type fuse<br>
&gt; &gt; (rw,max_read=131072,allow_other,default_permissions)<br>
&gt; &gt; glusterfs#file02.priv on /mnt/file02 type fuse<br>
&gt; &gt; (rw,max_read=131072,allow_other,default_permissions)<br>
&gt; &gt;<br>
&gt; &gt; They work:<br>
&gt; &gt;<br>
&gt; &gt; [root@streamer013 /]# ls /mnt/file01/<br>
&gt; &gt; cust<br>
&gt; &gt; [root@streamer013 /]# ls /mnt/file02/<br>
&gt; &gt; cust<br>
&gt; &gt;<br>
&gt; &gt; And they are seen by both servers:<br>
&gt; &gt;<br>
&gt; &gt; file01:<br>
&gt; &gt;<br>
&gt; &gt; [2009-07-22 18:34:19] N [server-helpers.c:723:server_connection_destroy]<br>
&gt; &gt; server: destroyed connection of streamer013.<br>
&gt; &gt; p4.bt.bcn.flumotion.net-14335-2009/07/22-18:34:13:210609-filedata<br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7796:notify] server:<br>
&gt; &gt; <a href="http://192.168.128.213:1017" target="_blank">192.168.128.213:1017</a> disconnected<br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7796:notify] server:<br>
&gt; &gt; <a href="http://192.168.128.213:1018" target="_blank">192.168.128.213:1018</a> disconnected<br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7035:mop_setvolume] server:<br>
&gt; &gt; accepted client from <a href="http://192.168.128.213:1017" target="_blank">192.168.128.213:1017</a><br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7035:mop_setvolume] server:<br>
&gt; &gt; accepted client from <a href="http://192.168.128.213:1018" target="_blank">192.168.128.213:1018</a><br>
&gt; &gt;<br>
&gt; &gt; file02:<br>
&gt; &gt;<br>
&gt; &gt; [2009-07-22 18:34:20] N [server-helpers.c:723:server_connection_destroy]<br>
&gt; &gt; server: destroyed connection of streamer013.<br>
&gt; &gt; p4.bt.bcn.flumotion.net-14379-2009/07/22-18:34:13:267495-filedata<br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7796:notify] server:<br>
&gt; &gt; <a href="http://192.168.128.213:1014" target="_blank">192.168.128.213:1014</a> disconnected<br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7796:notify] server:<br>
&gt; &gt; <a href="http://192.168.128.213:1015" target="_blank">192.168.128.213:1015</a> disconnected<br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7035:mop_setvolume] server:<br>
&gt; &gt; accepted client from <a href="http://192.168.128.213:1015" target="_blank">192.168.128.213:1015</a><br>
&gt; &gt; [2009-07-22 18:34:31] N [server-protocol.c:7035:mop_setvolume] server:<br>
&gt; &gt; accepted client from <a href="http://192.168.128.213:1014" target="_blank">192.168.128.213:1014</a><br>
&gt; &gt;<br>
&gt; &gt; Now let&#39;s see the funny things. First, a content listing of a particular<br>
&gt; &gt; directory, locally from both servers:<br>
&gt; &gt;<br>
&gt; &gt; [root@file01 ~]# ls /file/data/cust/cust1<br>
&gt; &gt; configs  files  outgoing  reports<br>
&gt; &gt;<br>
&gt; &gt; [root@file02 ~]# ls /file/data/cust/cust1<br>
&gt; &gt; configs  files  outgoing  reports<br>
&gt; &gt;<br>
&gt; &gt; Now let&#39;s try to see the same from the client side:<br>
&gt; &gt;<br>
&gt; &gt; [root@streamer013 /]# ls /mnt/file01/cust/cust1<br>
&gt; &gt; ls: /mnt/file01/cust/cust1: No such file or directory<br>
&gt; &gt; [root@streamer013 /]# ls /mnt/file02/cust/cust1<br>
&gt; &gt; configs  files  outgoing  reports<br>
&gt; &gt;<br>
&gt; &gt; Oops :( And the client log says:<br>
&gt; &gt;<br>
&gt; &gt; [2009-07-22 18:41:22] W [fuse-bridge.c:1651:fuse_opendir]<br>
&gt; &gt; glusterfs-fuse: 64: OPENDIR (null) (fuse_loc_fill() failed)<br>
&gt; &gt;<br>
&gt; &gt; While none of the servers logs say anything.<br>
&gt; &gt;<br>
&gt; &gt; So files really exist in the servers, but the same client can see them<br>
&gt; &gt; in one of the filers but not in the other, although both are running<br>
&gt; &gt; exactly the same software. But there&#39;s more. It seems it only happens<br>
&gt; &gt; for certain directories (I can&#39;t show you the contents due to privacity,<br>
&gt; &gt; but I guess you&#39;ll figure it out):<br>
&gt; &gt;<br>
&gt; &gt; [root@streamer013 /]# ls /mnt/file01/cust/|wc -l<br>
&gt; &gt; 95<br>
&gt; &gt; [root@streamer013 /]# ls /mnt/file02/cust/|wc -l<br>
&gt; &gt; 95<br>
&gt; &gt; [root@streamer013 /]# for i in `ls /mnt/file01/cust/`; do<br>
&gt; &gt; ls /mnt/file01/cust/$i; done|grep such<br>
&gt; &gt; ls: /mnt/file01/cust/cust1: No such file or directory<br>
&gt; &gt; ls: /mnt/file01/cust/cust2: No such file or directory<br>
&gt; &gt; [root@streamer013 /]# for i in `ls /mnt/file02/cust/`; do<br>
&gt; &gt; ls /mnt/file02/cust/$i; done|grep such<br>
&gt; &gt; [root@streamer013 /]#<br>
&gt; &gt;<br>
&gt; &gt; And of course, our client log error twice:<br>
&gt; &gt;<br>
&gt; &gt; [2009-07-22 18:49:21] W [fuse-bridge.c:1651:fuse_opendir]<br>
&gt; &gt; glusterfs-fuse: 2119: OPENDIR (null) (fuse_loc_fill() failed)<br>
&gt; &gt; [2009-07-22 18:49:21] W [fuse-bridge.c:1651:fuse_opendir]<br>
&gt; &gt; glusterfs-fuse: 2376: OPENDIR (null) (fuse_loc_fill() failed)<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; I hope having been clear enough this time. If you need more data just<br>
&gt; &gt; let me know and I&#39;ll see what I can do.<br>
&gt; &gt;<br>
&gt; &gt; And thanks again for your help.<br>
&gt; &gt;<br>
&gt; &gt; Roger<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; On Wed, 2009-07-22 at 09:10 -0700, Anand Avati wrote:<br>
&gt; &gt; &gt; &gt; I have been witnessing some strange behaviour with my GlusterFS system.<br>
&gt; &gt; &gt; &gt; Fact is there are some files which exist and are completely accessible<br>
&gt; &gt; &gt; &gt; in the server, while they can&#39;t be accessed from a client, while other<br>
&gt; &gt; &gt; &gt; files do.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; To be sure, I copied the same files to another directory and I still was<br>
&gt; &gt; &gt; &gt; unable to see them from the client. To be sure it wasn&#39;t any kind of<br>
&gt; &gt; &gt; &gt; file permissions, selinux or whatever issue, I created a copy from a<br>
&gt; &gt; &gt; &gt; working directory, and still wasn&#39;t seen from the client. All I get is<br>
&gt; &gt; &gt; &gt; a:<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; ls: .: No such file or directory<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; And the client log says:<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; [2009-07-22 14:04:18] W [fuse-bridge.c:1651:fuse_opendir]<br>
&gt; &gt; &gt; &gt; glusterfs-fuse: 104778: OPENDIR (null) (fuse_loc_fill() failed)<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; While the server log says nothing.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; Funniest thing is the same client has another GlusterFS mount to another<br>
&gt; &gt; &gt; &gt; server, which has exactly the same contents as the first one, and this<br>
&gt; &gt; &gt; &gt; mount does work.<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; Some data:<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; [root@streamer001 /]# ls /mnt/file01/cust/cust1/<br>
&gt; &gt; &gt; &gt; ls: /mnt/file01/cust/cust1/: No such file or directory<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; [root@streamer001 /]# ls /mnt/file02/cust/cust1/<br>
&gt; &gt; &gt; &gt; configs  files  outgoing  reports<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; [root@streamer001 /]# mount<br>
&gt; &gt; &gt; &gt; /dev/mapper/VolGroup00-LogVol00 on / type ext3 (rw)<br>
&gt; &gt; &gt; &gt; proc on /proc type proc (rw)<br>
&gt; &gt; &gt; &gt; sysfs on /sys type sysfs (rw)<br>
&gt; &gt; &gt; &gt; devpts on /dev/pts type devpts (rw,gid=5,mode=620)<br>
&gt; &gt; &gt; &gt; /dev/sda1 on /boot type ext3 (rw)<br>
&gt; &gt; &gt; &gt; tmpfs on /dev/shm type tmpfs (rw)<br>
&gt; &gt; &gt; &gt; none on /proc/sys/fs/binfmt_misc type binfmt_misc (rw)<br>
&gt; &gt; &gt; &gt; sunrpc on /var/lib/nfs/rpc_pipefs type rpc_pipefs (rw)<br>
&gt; &gt; &gt; &gt; glusterfs#file01.priv on /mnt/file01 type fuse<br>
&gt; &gt; &gt; &gt; (rw,max_read=131072,allow_other,default_permissions)<br>
&gt; &gt; &gt; &gt; glusterfs#file02.priv on /mnt/file02 type fuse<br>
&gt; &gt; &gt; &gt; (rw,max_read=131072,allow_other,default_permissions)<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; [root@file01 /]# ls /file/data/cust/cust1<br>
&gt; &gt; &gt; &gt; configs  files  outgoing  reports<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; [root@file02 /]# ls /file/data/cust/cust1<br>
&gt; &gt; &gt; &gt; configs  files  outgoing  reports<br>
&gt; &gt; &gt; &gt;<br>
&gt; &gt; &gt; &gt; Any ideas?<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Can you please post all your client and server logs and volfiles? Are<br>
&gt; &gt; &gt; you quite certain that this is not a result of some misconfiguration?<br>
&gt; &gt; &gt;<br>
&gt; &gt; &gt; Avati<br>
&gt; &gt;<br>
&gt; &gt;<br>
&gt; &gt; _______________________________________________<br>
&gt; &gt; Gluster-devel mailing list<br>
&gt; &gt; <a href="mailto:Gluster-devel@nongnu.org">Gluster-devel@nongnu.org</a><br>
&gt; &gt; <a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
&gt;<br>
&gt;<br>
<br>
<br>
--<br>
Clean custom Red Hat Linux rpm packages : <a href="http://freshrpms.net/" target="_blank">http://freshrpms.net/</a><br>
Fedora release 10 (Cambridge) - Linux kernel<br>
</div></div>2.6.27.25-170.2.72.fc10.x86_64 Load : 0.50 3.32 2.58<br>
<div><div></div><div class="h5"><br>
<br>
_______________________________________________<br>
Gluster-devel mailing list<br>
<a href="mailto:Gluster-devel@nongnu.org">Gluster-devel@nongnu.org</a><br>
<a href="http://lists.nongnu.org/mailman/listinfo/gluster-devel" target="_blank">http://lists.nongnu.org/mailman/listinfo/gluster-devel</a><br>
</div></div></blockquote></div><br></div>