<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.0 Transitional//EN">
<HTML><HEAD>
<META content=text/html;charset=utf-8 http-equiv=Content-Type>
<META name=GENERATOR content="MSHTML 8.00.6001.18241"></HEAD>
<BODY style="PADDING-LEFT: 10px; PADDING-RIGHT: 10px; PADDING-TOP: 15px" 
id=MailContainerBody leftMargin=0 topMargin=0 bgColor=#ffffff 
CanvasTabStop="true" name="Compose message area">
<DIV><FONT size=2 face=宋体>Ananth,</FONT></DIV>
<DIV><FONT size=2 face=宋体></FONT>&nbsp;</DIV>
<DIV>&nbsp;&nbsp;&nbsp;&nbsp;<FONT size=2 face=宋体>Thank you for your 
kindness.</FONT></DIV>
<DIV><FONT size=2 face=宋体></FONT>&nbsp;</DIV>
<DIV>&nbsp;&nbsp;&nbsp;&nbsp;<FONT size=2 face=宋体>I will try to use them as you 
advise. For past days, I have research the ReiserFS, about which some papers 
said it is no limitation on the number of the subdirectory, is it 
right?</FONT></DIV>
<DIV><FONT size=2 face=宋体></FONT>&nbsp;</DIV>
<DIV><FONT size=2 face=宋体>Thanks,</FONT></DIV>
<DIV><FONT size=2 face=宋体>Yaomin</FONT></DIV>
<DIV style="FONT: 10pt Tahoma">
<DIV><BR></DIV>
<DIV style="BACKGROUND: #f5f5f5">
<DIV style="font-color: black"><B>From:</B> <A title=ananth@zresearch.com 
href="mailto:ananth@zresearch.com">Ananth</A> </DIV>
<DIV><B>Sent:</B> Friday, January 09, 2009 2:47 PM</DIV>
<DIV><B>To:</B> <A title=yangyaomin@gmail.com 
href="mailto:yangyaomin@gmail.com">yaomin @ gmail</A> </DIV>
<DIV><B>Cc:</B> <A title=gluster-devel@nongnu.org 
href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A> </DIV>
<DIV><B>Subject:</B> Re: [Gluster-devel] Re: Gluster-devel Digest, Vol 41, Issue 
13</DIV></DIV></DIV>
<DIV><BR></DIV>Hi Yaomin,<BR>&gt;From what I remember both XFS and the rather 
nascent EXT4 have a higher subdirectory limit. You could probably check ZFS as 
well. <BR>You can convert your ext3 filesystem into ext4 : <BR><A 
href="http://ext4.wiki.kernel.org/index.php/Ext4_Howto#Converting_an_ext3_filesystem_to_ext4">http://ext4.wiki.kernel.org/index.php/Ext4_Howto#Converting_an_ext3_filesystem_to_ext4</A><BR><BR>These 
are just pointers as to what you can do, hence please check if the change in 
filesystem is feasible / appropriate for you, and ensure your data is backed up 
before proceeding. <BR><BR>Regards,<BR>Ananth<BR>Z Research<BR><BR>-----Original 
Message-----<BR><B>From</B>: yaomin @ gmail &lt;<A 
href="mailto:%22yaomin%20@%20gmail%22%20%3cyangyaomin@gmail.com%3e">yangyaomin@gmail.com</A>&gt;<BR><B>To</B>: 
<A 
href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A><BR><B>Subject</B>: 
[Gluster-devel] Re: Gluster-devel Digest, Vol 41, Issue 13<BR><B>Date</B>: Wed, 
7 Jan 2009 22:54:51 +0800<BR><BR><PRE>All,

    When I use the ext3 as the filesystem on the server, I have a new 
trouble that one directory at most have 31998 subdirectories. Do you have 
any advice for me?

Thanks,
Yaomin

--------------------------------------------------
From: &lt;<A href="mailto:gluster-devel-request@nongnu.org">gluster-devel-request@nongnu.org</A>&gt;
Sent: Tuesday, January 06, 2009 8:21 PM
To: &lt;<A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>&gt;
Subject: Gluster-devel Digest, Vol 41, Issue 13

&gt; Send Gluster-devel mailing list submissions to
&gt; <A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>
&gt;
&gt; To subscribe or unsubscribe via the World Wide Web, visit
&gt; <A href="http://lists.nongnu.org/mailman/listinfo/gluster-devel">http://lists.nongnu.org/mailman/listinfo/gluster-devel</A>
&gt; or, via email, send a message with subject or body 'help' to
&gt; <A href="mailto:gluster-devel-request@nongnu.org">gluster-devel-request@nongnu.org</A>
&gt;
&gt; You can reach the person managing the list at
&gt; <A href="mailto:gluster-devel-owner@nongnu.org">gluster-devel-owner@nongnu.org</A>
&gt;
&gt; When replying, please edit your Subject line so it is more specific
&gt; than "Re: Contents of Gluster-devel digest..."
&gt;
&gt;
&gt; Today's Topics:
&gt;
&gt;   1. Re: Cascading different translator doesn't work as
&gt;      expectation (yaomin @ gmail)
&gt;   2. Re: Cascading different translator doesn't work as
&gt;      expectation (Krishna Srinivas)
&gt;   3. Re: Cascading different translator doesn't work as
&gt;      expectation (yaomin @ gmail)
&gt;
&gt;
&gt; ----------------------------------------------------------------------
&gt;
&gt; Message: 1
&gt; Date: Tue, 6 Jan 2009 17:13:49 +0800
&gt; From: "yaomin @ gmail" &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't
&gt; work as expectation
&gt; To: "Krishna Srinivas" &lt;<A href="mailto:krishna@zresearch.com">krishna@zresearch.com</A>&gt;
&gt; Cc: <A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>
&gt; Message-ID: &lt;D7CA065B4BF644348A6DE543D8213029@yangyaomin&gt;
&gt; Content-Type: text/plain; charset="iso-8859-1"
&gt;
&gt; Krishna,
&gt;
&gt;    Thank you for your kind help before.
&gt;
&gt;    According to your advice, I confront a new error. The storage node has 
&gt; no log information, and the client's log is like following:
&gt;
&gt; /lib64/libc.so.6[0x3fbb2300a0]
&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/afr.so(afr_setxattr+0x6a)[0x2aaaaaf0658a]
&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/stripe.so(notify+0x220)[0x2aaaab115c80]
&gt; /usr/local/lib/libglusterfs.so.0(default_notify+0x25)[0x2aaaaaab8f55]
&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/afr.so(notify+0x16d)[0x2aaaaaefc19d]
&gt; /usr/local/lib/glusterfs/1.3.9/xlator/protocol/client.so(notify+0x681)[0x2aaaaacebac1]
&gt; /usr/local/lib/libglusterfs.so.0(sys_epoll_iteration+0xbb)[0x2aaaaaabe14b]
&gt; /usr/local/lib/libglusterfs.so.0(poll_iteration+0x79)[0x2aaaaaabd509]
&gt; [glusterfs](main+0x66a)[0x4026aa]
&gt; /lib64/libc.so.6(__libc_start_main+0xf4)[0x3fbb21d8a4]
&gt; [glusterfs][0x401b69]
&gt; ---------
&gt;
&gt;
&gt; [root@IP6 ~]# df -h
&gt; Filesystem            Size  Used Avail Use% Mounted on
&gt; /dev/sda2             9.5G  6.8G  2.2G  76% /
&gt; /dev/sda1             190M   12M  169M   7% /boot
&gt; tmpfs                1006M     0 1006M   0% /dev/shm
&gt; /dev/sda4             447G  2.8G  422G   1% /locfs
&gt; /dev/sdb1             459G  199M  435G   1% /locfsb
&gt; df: `/mnt/new': Transport endpoint is not connected
&gt;
&gt; Thanks,
&gt; Yaomin
&gt;
&gt; --------------------------------------------------
&gt; From: "Krishna Srinivas" &lt;<A href="mailto:krishna@zresearch.com">krishna@zresearch.com</A>&gt;
&gt; Sent: Tuesday, January 06, 2009 1:09 PM
&gt; To: "yaomin @ gmail" &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt; Cc: &lt;<A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>&gt;
&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't work 
&gt; as expectation
&gt;
&gt;&gt; Alfred,
&gt;&gt; Your vol files are wrong. you need to remove all the volume
&gt;&gt; definitions below "writeback" in the client vol file. For server vol
&gt;&gt; file the definition of performance translators is not having any
&gt;&gt; effect. Also you need to use "features/locks" translator above
&gt;&gt; "storage/posix"
&gt;&gt; Krishna
&gt;&gt;
&gt;&gt; On Tue, Jan 6, 2009 at 8:51 AM, yaomin @ gmail &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt; 
&gt;&gt; wrote:
&gt;&gt;&gt; All,
&gt;&gt;&gt;
&gt;&gt;&gt;     It seems difficult for you.
&gt;&gt;&gt;
&gt;&gt;&gt;     There is a new problem when I tested.
&gt;&gt;&gt;
&gt;&gt;&gt;     When I kill all the storage nodes, the client still try to send 
&gt;&gt;&gt; data,
&gt;&gt;&gt; and doesn't quit.
&gt;&gt;&gt;
&gt;&gt;&gt; Thanks,
&gt;&gt;&gt; Alfred
&gt;&gt;&gt; From: yaomin @ gmail
&gt;&gt;&gt; Sent: Monday, January 05, 2009 10:52 PM
&gt;&gt;&gt; To: Krishna Srinivas
&gt;&gt;&gt; Cc: <A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>
&gt;&gt;&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't work 
&gt;&gt;&gt; as
&gt;&gt;&gt; expectation
&gt;&gt;&gt; Krishna,
&gt;&gt;&gt;     Thank you for your quick response.
&gt;&gt;&gt;     There are two log information in the client's log file when setting 
&gt;&gt;&gt; up
&gt;&gt;&gt; the client.
&gt;&gt;&gt;     2009-01-05 18:44:59 W [fuse-bridge.c:389:fuse_entry_cbk] 
&gt;&gt;&gt; glusterfs-fuse:
&gt;&gt;&gt; 2: (34) / =&gt; 1 Rehashing 0/0
&gt;&gt;&gt;     2009-01-05 18:48:04 W [fuse-bridge.c:389:fuse_entry_cbk] 
&gt;&gt;&gt; glusterfs-fuse:
&gt;&gt;&gt; 2: (34) / =&gt; 1 Rehashing 0/0
&gt;&gt;&gt;
&gt;&gt;&gt;   There is no any information in the storage node's log file.
&gt;&gt;&gt;
&gt;&gt;&gt;   Although I changed the scheduler from ALU to RR, there only the
&gt;&gt;&gt; No.3(192.168.13.5) and No.4(192.168.13.7) storage nodes on working.
&gt;&gt;&gt;
&gt;&gt;&gt;   Each machine has 2GB memory.
&gt;&gt;&gt;
&gt;&gt;&gt; Thanks,
&gt;&gt;&gt; Alfred
&gt;&gt;&gt;
&gt; -------------- next part --------------
&gt; An HTML attachment was scrubbed...
&gt; URL: 
&gt; <A href="http://lists.gnu.org/pipermail/gluster-devel/attachments/20090106/76074e85/attachment.html">http://lists.gnu.org/pipermail/gluster-devel/attachments/20090106/76074e85/attachment.html</A>
&gt;
&gt; ------------------------------
&gt;
&gt; Message: 2
&gt; Date: Tue, 6 Jan 2009 15:06:42 +0530
&gt; From: "Krishna Srinivas" &lt;<A href="mailto:krishna@zresearch.com">krishna@zresearch.com</A>&gt;
&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't
&gt; work as expectation
&gt; To: "yaomin @ gmail" &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt; Cc: <A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>
&gt; Message-ID:
&gt; &lt;<A href="mailto:ad4bc5820901060136k2a3c0943nd89b0d4f41240e22@mail.gmail.com">ad4bc5820901060136k2a3c0943nd89b0d4f41240e22@mail.gmail.com</A>&gt;
&gt; Content-Type: text/plain; charset=ISO-8859-1
&gt;
&gt; Yaomin,
&gt;
&gt; Can you:
&gt; * mention what version you are using
&gt; * give the modified client and server vol file (to see if there are any 
&gt; errors)
&gt; * give gdb backtrace from the core file? "gdb -c /core.pid glusterfs"
&gt; and then type "bt"
&gt;
&gt; Krishna
&gt;
&gt; On Tue, Jan 6, 2009 at 2:43 PM, yaomin @ gmail &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt; 
&gt; wrote:
&gt;&gt; Krishna,
&gt;&gt;
&gt;&gt;     Thank you for your kind help before.
&gt;&gt;
&gt;&gt;     According to your advice, I confront a new error. The storage node 
&gt;&gt; has
&gt;&gt; no log information, and the client's log is like following:
&gt;&gt;
&gt;&gt; /lib64/libc.so.6[0x3fbb2300a0]
&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/afr.so(afr_setxattr+0x6a)[0x2aaaaaf0658a]
&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/stripe.so(notify+0x220)[0x2aaaab115c80]
&gt;&gt; /usr/local/lib/libglusterfs.so.0(default_notify+0x25)[0x2aaaaaab8f55]
&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/afr.so(notify+0x16d)[0x2aaaaaefc19d]
&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/protocol/client.so(notify+0x681)[0x2aaaaacebac1]
&gt;&gt; /usr/local/lib/libglusterfs.so.0(sys_epoll_iteration+0xbb)[0x2aaaaaabe14b]
&gt;&gt; /usr/local/lib/libglusterfs.so.0(poll_iteration+0x79)[0x2aaaaaabd509]
&gt;&gt; [glusterfs](main+0x66a)[0x4026aa]
&gt;&gt; /lib64/libc.so.6(__libc_start_main+0xf4)[0x3fbb21d8a4]
&gt;&gt; [glusterfs][0x401b69]
&gt;&gt; ---------
&gt;&gt;
&gt;&gt; [root@IP6 ~]# df -h
&gt;&gt; Filesystem            Size  Used Avail Use% Mounted on
&gt;&gt; /dev/sda2             9.5G  6.8G  2.2G  76% /
&gt;&gt; /dev/sda1             190M   12M  169M   7% /boot
&gt;&gt; tmpfs                1006M     0 1006M   0% /dev/shm
&gt;&gt; /dev/sda4             447G  2.8G  422G   1% /locfs
&gt;&gt; /dev/sdb1             459G  199M  435G   1% /locfsb
&gt;&gt; df: `/mnt/new': Transport endpoint is not connected
&gt;&gt;
&gt;&gt; Thanks,
&gt;&gt; Yaomin
&gt;&gt; --------------------------------------------------
&gt;&gt; From: "Krishna Srinivas" &lt;<A href="mailto:krishna@zresearch.com">krishna@zresearch.com</A>&gt;
&gt;&gt; Sent: Tuesday, January 06, 2009 1:09 PM
&gt;&gt; To: "yaomin @ gmail" &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt;&gt; Cc: &lt;<A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>&gt;
&gt;&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't work 
&gt;&gt; as
&gt;&gt; expectation
&gt;&gt;
&gt;&gt;&gt; Alfred,
&gt;&gt;&gt; Your vol files are wrong. you need to remove all the volume
&gt;&gt;&gt; definitions below "writeback" in the client vol file. For server vol
&gt;&gt;&gt; file the definition of performance translators is not having any
&gt;&gt;&gt; effect. Also you need to use "features/locks" translator above
&gt;&gt;&gt; "storage/posix"
&gt;&gt;&gt; Krishna
&gt;&gt;&gt;
&gt;&gt;&gt; On Tue, Jan 6, 2009 at 8:51 AM, yaomin @ gmail &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt;&gt;&gt; wrote:
&gt;&gt;&gt;&gt; All,
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;     It seems difficult for you.
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;     There is a new problem when I tested.
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;     When I kill all the storage nodes, the client still try to send 
&gt;&gt;&gt;&gt; data,
&gt;&gt;&gt;&gt; and doesn't quit.
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt; Thanks,
&gt;&gt;&gt;&gt; Alfred
&gt;&gt;&gt;&gt; From: yaomin @ gmail
&gt;&gt;&gt;&gt; Sent: Monday, January 05, 2009 10:52 PM
&gt;&gt;&gt;&gt; To: Krishna Srinivas
&gt;&gt;&gt;&gt; Cc: <A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>
&gt;&gt;&gt;&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't 
&gt;&gt;&gt;&gt; work
&gt;&gt;&gt;&gt; as
&gt;&gt;&gt;&gt; expectation
&gt;&gt;&gt;&gt; Krishna,
&gt;&gt;&gt;&gt;     Thank you for your quick response.
&gt;&gt;&gt;&gt;     There are two log information in the client's log file when setting
&gt;&gt;&gt;&gt; up
&gt;&gt;&gt;&gt; the client.
&gt;&gt;&gt;&gt;     2009-01-05 18:44:59 W [fuse-bridge.c:389:fuse_entry_cbk]
&gt;&gt;&gt;&gt; glusterfs-fuse:
&gt;&gt;&gt;&gt; 2: (34) / =&gt; 1 Rehashing 0/0
&gt;&gt;&gt;&gt;     2009-01-05 18:48:04 W [fuse-bridge.c:389:fuse_entry_cbk]
&gt;&gt;&gt;&gt; glusterfs-fuse:
&gt;&gt;&gt;&gt; 2: (34) / =&gt; 1 Rehashing 0/0
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;   There is no any information in the storage node's log file.
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;   Although I changed the scheduler from ALU to RR, there only the
&gt;&gt;&gt;&gt; No.3(192.168.13.5) and No.4(192.168.13.7) storage nodes on working.
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;   Each machine has 2GB memory.
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt; Thanks,
&gt;&gt;&gt;&gt; Alfred
&gt;&gt;&gt;&gt;
&gt;
&gt;
&gt;
&gt;
&gt; ------------------------------
&gt;
&gt; Message: 3
&gt; Date: Tue, 6 Jan 2009 20:21:35 +0800
&gt; From: "yaomin @ gmail" &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't
&gt; work as expectation
&gt; To: "Krishna Srinivas" &lt;<A href="mailto:krishna@zresearch.com">krishna@zresearch.com</A>&gt;
&gt; Cc: <A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>
&gt; Message-ID: &lt;CA759DEFFF2C42AA877946E88BD53E42@yangyaomin&gt;
&gt; Content-Type: text/plain; charset="iso-8859-1"
&gt;
&gt; Krishna,
&gt;
&gt;    1, The version is 1.3.9
&gt;    2, the client and server vol files are in the attachments.
&gt;    3, The result is "No Stack"
&gt;
&gt; Thanks,
&gt; Yaomin
&gt;
&gt; --------------------------------------------------
&gt; From: "Krishna Srinivas" &lt;<A href="mailto:krishna@zresearch.com">krishna@zresearch.com</A>&gt;
&gt; Sent: Tuesday, January 06, 2009 5:36 PM
&gt; To: "yaomin @ gmail" &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt; Cc: &lt;<A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>&gt;
&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't work 
&gt; as
&gt; expectation
&gt;
&gt;&gt; Yaomin,
&gt;&gt;
&gt;&gt; Can you:
&gt;&gt; * mention what version you are using
&gt;&gt; * give the modified client and server vol file (to see if there are any
&gt;&gt; errors)
&gt;&gt; * give gdb backtrace from the core file? "gdb -c /core.pid glusterfs"
&gt;&gt; and then type "bt"
&gt;&gt;
&gt;&gt; Krishna
&gt;&gt;
&gt;&gt; On Tue, Jan 6, 2009 at 2:43 PM, yaomin @ gmail &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt;&gt; wrote:
&gt;&gt;&gt; Krishna,
&gt;&gt;&gt;
&gt;&gt;&gt;     Thank you for your kind help before.
&gt;&gt;&gt;
&gt;&gt;&gt;     According to your advice, I confront a new error. The storage node
&gt;&gt;&gt; has
&gt;&gt;&gt; no log information, and the client's log is like following:
&gt;&gt;&gt;
&gt;&gt;&gt; /lib64/libc.so.6[0x3fbb2300a0]
&gt;&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/afr.so(afr_setxattr+0x6a)[0x2aaaaaf0658a]
&gt;&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/stripe.so(notify+0x220)[0x2aaaab115c80]
&gt;&gt;&gt; /usr/local/lib/libglusterfs.so.0(default_notify+0x25)[0x2aaaaaab8f55]
&gt;&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/cluster/afr.so(notify+0x16d)[0x2aaaaaefc19d]
&gt;&gt;&gt; /usr/local/lib/glusterfs/1.3.9/xlator/protocol/client.so(notify+0x681)[0x2aaaaacebac1]
&gt;&gt;&gt; /usr/local/lib/libglusterfs.so.0(sys_epoll_iteration+0xbb)[0x2aaaaaabe14b]
&gt;&gt;&gt; /usr/local/lib/libglusterfs.so.0(poll_iteration+0x79)[0x2aaaaaabd509]
&gt;&gt;&gt; [glusterfs](main+0x66a)[0x4026aa]
&gt;&gt;&gt; /lib64/libc.so.6(__libc_start_main+0xf4)[0x3fbb21d8a4]
&gt;&gt;&gt; [glusterfs][0x401b69]
&gt;&gt;&gt; ---------
&gt;&gt;&gt;
&gt;&gt;&gt; [root@IP6 ~]# df -h
&gt;&gt;&gt; Filesystem            Size  Used Avail Use% Mounted on
&gt;&gt;&gt; /dev/sda2             9.5G  6.8G  2.2G  76% /
&gt;&gt;&gt; /dev/sda1             190M   12M  169M   7% /boot
&gt;&gt;&gt; tmpfs                1006M     0 1006M   0% /dev/shm
&gt;&gt;&gt; /dev/sda4             447G  2.8G  422G   1% /locfs
&gt;&gt;&gt; /dev/sdb1             459G  199M  435G   1% /locfsb
&gt;&gt;&gt; df: `/mnt/new': Transport endpoint is not connected
&gt;&gt;&gt;
&gt;&gt;&gt; Thanks,
&gt;&gt;&gt; Yaomin
&gt;&gt;&gt; --------------------------------------------------
&gt;&gt;&gt; From: "Krishna Srinivas" &lt;<A href="mailto:krishna@zresearch.com">krishna@zresearch.com</A>&gt;
&gt;&gt;&gt; Sent: Tuesday, January 06, 2009 1:09 PM
&gt;&gt;&gt; To: "yaomin @ gmail" &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt;&gt;&gt; Cc: &lt;<A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>&gt;
&gt;&gt;&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't work
&gt;&gt;&gt; as
&gt;&gt;&gt; expectation
&gt;&gt;&gt;
&gt;&gt;&gt;&gt; Alfred,
&gt;&gt;&gt;&gt; Your vol files are wrong. you need to remove all the volume
&gt;&gt;&gt;&gt; definitions below "writeback" in the client vol file. For server vol
&gt;&gt;&gt;&gt; file the definition of performance translators is not having any
&gt;&gt;&gt;&gt; effect. Also you need to use "features/locks" translator above
&gt;&gt;&gt;&gt; "storage/posix"
&gt;&gt;&gt;&gt; Krishna
&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt; On Tue, Jan 6, 2009 at 8:51 AM, yaomin @ gmail &lt;<A href="mailto:yangyaomin@gmail.com">yangyaomin@gmail.com</A>&gt;
&gt;&gt;&gt;&gt; wrote:
&gt;&gt;&gt;&gt;&gt; All,
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt;     It seems difficult for you.
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt;     There is a new problem when I tested.
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt;     When I kill all the storage nodes, the client still try to send
&gt;&gt;&gt;&gt;&gt; data,
&gt;&gt;&gt;&gt;&gt; and doesn't quit.
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt; Thanks,
&gt;&gt;&gt;&gt;&gt; Alfred
&gt;&gt;&gt;&gt;&gt; From: yaomin @ gmail
&gt;&gt;&gt;&gt;&gt; Sent: Monday, January 05, 2009 10:52 PM
&gt;&gt;&gt;&gt;&gt; To: Krishna Srinivas
&gt;&gt;&gt;&gt;&gt; Cc: <A href="mailto:gluster-devel@nongnu.org">gluster-devel@nongnu.org</A>
&gt;&gt;&gt;&gt;&gt; Subject: Re: [Gluster-devel] Cascading different translator doesn't
&gt;&gt;&gt;&gt;&gt; work
&gt;&gt;&gt;&gt;&gt; as
&gt;&gt;&gt;&gt;&gt; expectation
&gt;&gt;&gt;&gt;&gt; Krishna,
&gt;&gt;&gt;&gt;&gt;     Thank you for your quick response.
&gt;&gt;&gt;&gt;&gt;     There are two log information in the client's log file when 
&gt;&gt;&gt;&gt;&gt; setting
&gt;&gt;&gt;&gt;&gt; up
&gt;&gt;&gt;&gt;&gt; the client.
&gt;&gt;&gt;&gt;&gt;     2009-01-05 18:44:59 W [fuse-bridge.c:389:fuse_entry_cbk]
&gt;&gt;&gt;&gt;&gt; glusterfs-fuse:
&gt;&gt;&gt;&gt;&gt; 2: (34) / =&gt; 1 Rehashing 0/0
&gt;&gt;&gt;&gt;&gt;     2009-01-05 18:48:04 W [fuse-bridge.c:389:fuse_entry_cbk]
&gt;&gt;&gt;&gt;&gt; glusterfs-fuse:
&gt;&gt;&gt;&gt;&gt; 2: (34) / =&gt; 1 Rehashing 0/0
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt;   There is no any information in the storage node's log file.
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt;   Although I changed the scheduler from ALU to RR, there only the
&gt;&gt;&gt;&gt;&gt; No.3(192.168.13.5) and No.4(192.168.13.7) storage nodes on working.
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt;   Each machine has 2GB memory.
&gt;&gt;&gt;&gt;&gt;
&gt;&gt;&gt;&gt;&gt; Thanks,
&gt;&gt;&gt;&gt;&gt; Alfred
&gt;&gt;&gt;&gt;&gt;
&gt; -------------- next part --------------
&gt; volume client-ns
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.2        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume name_space          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume client11
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.2        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick1          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume client12
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.2        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick2          # name of the remote volume
&gt; end-volume
&gt;
&gt;
&gt; volume client21
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.4        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick1          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume client22
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.4        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick2          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume client31
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.5        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick1          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume client32
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.5        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick2          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume client41
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.7        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick1          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume client42
&gt;  type protocol/client
&gt;  option transport-type tcp/client       # for TCP/IP transport
&gt;  option remote-host 192.168.13.7        # IP address of the remote brick
&gt; # option remote-port 6996                # default server port is 6996
&gt; # option transport-timeout 30            # seconds to wait for a response
&gt;                                         # from server for each request
&gt;  option remote-subvolume brick2          # name of the remote volume
&gt; end-volume
&gt;
&gt; volume afr1
&gt;  type cluster/afr
&gt;  subvolumes client11 client21
&gt;  option debug off         # turns on detailed debug messages
&gt;                              # in log by default is debugging off
&gt;  option self-heal on    # turn off self healing default is on
&gt; end-volume
&gt;
&gt; volume afr2
&gt;  type cluster/afr
&gt;  subvolumes client31 client41
&gt;  option debug off         # turns on detailed debug messages
&gt;                              # in log by default is debugging off
&gt;  option self-heal on    # turn off self healing default is on
&gt; end-volume
&gt;
&gt; volume afr3
&gt;  type cluster/afr
&gt;  subvolumes client12 client22
&gt;  option debug off         # turns on detailed debug messages
&gt;                              # in log by default is debugging off
&gt;  option self-heal on    # turn off self healing default is on
&gt; end-volume
&gt;
&gt; volume afr4
&gt;  type cluster/afr
&gt;  subvolumes client32 client42
&gt;  option debug off         # turns on detailed debug messages
&gt;                              # in log by default is debugging off
&gt;  option self-heal on    # turn off self healing default is on
&gt; end-volume
&gt;
&gt; volume stripe1
&gt;   type cluster/stripe
&gt;   option block-size 1MB                 #default size is 128KB
&gt;   subvolumes afr1 afr2
&gt; end-volume
&gt;
&gt; volume stripe2
&gt;   type cluster/stripe
&gt;   option block-size 1MB                 #default size is 128KB
&gt;   subvolumes afr3 afr4
&gt; end-volume
&gt;
&gt;
&gt;
&gt; volume bricks
&gt;  type cluster/unify
&gt;  subvolumes stripe1 stripe2
&gt;  option namespace client-ns
&gt;  option scheduler rr
&gt; end-volume
&gt;
&gt;
&gt; ### Add io-threads feature
&gt; volume iot
&gt;  type performance/io-threads
&gt;  option thread-count 1  # deault is 1
&gt;  option cache-size 16MB #64MB
&gt;
&gt;  subvolumes bricks #stripe #afr #bricks
&gt; end-volume
&gt;
&gt; ### Add readahead feature
&gt; volume readahead
&gt;  type performance/read-ahead
&gt;  option page-size 1MB      # unit in bytes
&gt;  option page-count 4       # cache per file  = (page-count x page-size)
&gt;  subvolumes iot
&gt; end-volume
&gt;
&gt; ### Add IO-Cache feature
&gt; volume iocache
&gt;  type performance/io-cache
&gt;  option page-size 256KB
&gt;  option page-count 8
&gt;  subvolumes readahead
&gt; end-volume
&gt;
&gt; ### Add writeback feature
&gt; volume writeback
&gt;  type performance/write-behind
&gt;  option aggregate-size 1MB  #option flush-behind off
&gt;  option window-size 3MB        # default is 0bytes
&gt; #  option flush-behind on       # default is 'off'
&gt;  subvolumes iocache
&gt; end-volume
&gt; -------------- next part --------------
&gt; volume name_space
&gt;  type storage/posix
&gt;  option directory /locfsb/name_space
&gt; end-volume
&gt;
&gt; volume brick_1
&gt;  type storage/posix               # POSIX FS translator
&gt;  option directory /locfs/brick    # Export this directory
&gt; end-volume
&gt;
&gt;
&gt; volume brick1
&gt;  type features/posix-locks               # POSIX FS translator
&gt;  subvolumes brick_1
&gt; end-volume
&gt;
&gt; volume brick_2
&gt;  type storage/posix               # POSIX FS translator
&gt;  option directory /locfsb/brick    # Export this directory
&gt; end-volume
&gt;
&gt;
&gt; volume brick2
&gt;  type features/posix-locks               # POSIX FS translator
&gt;  subvolumes brick_2
&gt; end-volume
&gt;
&gt; volume server
&gt;  type protocol/server
&gt;  option transport-type tcp/server       # For TCP/IP transport
&gt; # option listen-port 6996                # Default is 6996
&gt; # option client-volume-filename /etc/glusterfs/glusterfs-client.vol
&gt;  subvolumes brick1 brick2 name_space
&gt;  option auth.ip.brick1.allow 192.168.13.* # Allow access to "brick1" 
&gt; volume
&gt;  option auth.ip.brick2.allow 192.168.13.* # Allow access to "brick2" 
&gt; volume
&gt;  option auth.ip.name_space.allow 192.168.13.* # Allow access to
&gt; "name_space" volume
&gt; end-volume
&gt;
&gt; ------------------------------
&gt;
&gt; _______________________________________________
&gt; Gluster-devel mailing list
&gt; <A href="mailto:Gluster-devel@nongnu.org">Gluster-devel@nongnu.org</A>
&gt; <A href="http://lists.nongnu.org/mailman/listinfo/gluster-devel">http://lists.nongnu.org/mailman/listinfo/gluster-devel</A>
&gt;
&gt;
&gt; End of Gluster-devel Digest, Vol 41, Issue 13
&gt; ********************************************* 



_______________________________________________
Gluster-devel mailing list
<A href="mailto:Gluster-devel@nongnu.org">Gluster-devel@nongnu.org</A>
<A href="http://lists.nongnu.org/mailman/listinfo/gluster-devel">http://lists.nongnu.org/mailman/listinfo/gluster-devel</A>

</PRE></BODY></HTML>