<font size=2 face="sans-serif">Can someone help me find doc. or explain
what the below report means? &nbsp;I'm concerned that the localhost has
1127 failures.</font><br><br><font size=2 face="sans-serif">gluster&gt; volume rebalance devstatic
status</font><br><font size=2 face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; Node Rebalanced-files &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;size &nbsp;
&nbsp; &nbsp; scanned &nbsp; &nbsp; &nbsp;failures &nbsp; &nbsp; &nbsp;
&nbsp; status run time in secs</font><br><font size=2 face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;---------
&nbsp; &nbsp; &nbsp;----------- &nbsp; ----------- &nbsp; ----------- &nbsp;
----------- &nbsp; ------------ &nbsp; --------------</font><br><font size=2 face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;localhost
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;
&nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; 3688880 &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp;1127 &nbsp; &nbsp; &nbsp;completed &nbsp; &nbsp; &nbsp; &nbsp; 15788.00</font><br><font size=2 face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; omhq1832
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1186 &nbsp; &nbsp; &nbsp; &nbsp;82.9MB
&nbsp; &nbsp; &nbsp; 3688880 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
0 &nbsp; &nbsp; &nbsp;completed &nbsp; &nbsp; &nbsp; &nbsp; 17676.00</font><br><font size=2 face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; omdx1448
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;
&nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; 3688880 &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp;completed &nbsp; &nbsp; &nbsp; &nbsp;
16930.00</font><br><font size=2 face="sans-serif">&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; omdx14f0
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0 &nbsp; &nbsp;
&nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; 3688879 &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp;completed &nbsp; &nbsp; &nbsp; &nbsp;
16931.00</font><br><font size=2 face="sans-serif">volume rebalance: devstatic: success:</font><br><font size=2 face="sans-serif"><br><br>Khoi<br><br><br></font><br><br><br><br><font size=1 color=#5f5f5f face="sans-serif">From: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">gluster-users-request@gluster.org</font><br><font size=1 color=#5f5f5f face="sans-serif">To: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">gluster-users@gluster.org</font><br><font size=1 color=#5f5f5f face="sans-serif">Date: &nbsp; &nbsp; &nbsp;
&nbsp;</font><font size=1 face="sans-serif">09/18/2013 06:59 AM</font><br><font size=1 color=#5f5f5f face="sans-serif">Subject: &nbsp; &nbsp;
&nbsp; &nbsp;</font><font size=1 face="sans-serif">Gluster-users
Digest, Vol 65, Issue 18</font><br><font size=1 color=#5f5f5f face="sans-serif">Sent by: &nbsp; &nbsp;
&nbsp; &nbsp;</font><font size=1 face="sans-serif">gluster-users-bounces@gluster.org</font><br><hr noshade><br><br><br><tt><font size=2>Send Gluster-users mailing list submissions to<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
gluster-users@gluster.org<br><br>To subscribe or unsubscribe via the World Wide Web, visit<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
</font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>or, via email, send a message with subject or body 'help' to<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
gluster-users-request@gluster.org<br><br>You can reach the person managing the list at<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
gluster-users-owner@gluster.org<br><br>When replying, please edit your Subject line so it is more specific<br>than &quot;Re: Contents of Gluster-users digest...&quot;<br><br><br>Today's Topics:<br><br> &nbsp; 1. Re: gluster volume top issue (Nux!)<br> &nbsp; 2. Re: gluster volume top issue (Shishir Gowda)<br> &nbsp; 3. Re: gluster volume top issue (Nux!)<br> &nbsp; 4. Strange Sync Problem - FS not matching GlusterFS<br> &nbsp; &nbsp; &nbsp;(Cristiano Bianchi)<br> &nbsp; 5. Re: GlusterFS extended attributes, &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &quot;system&quot; namespace<br> &nbsp; &nbsp; &nbsp;(Iain Buchanan)<br> &nbsp; 6. Re: Gluster 3.4 QEMU and Permission Denied Errors<br> &nbsp; &nbsp; &nbsp;(Andrew Niemantsverdriet)<br> &nbsp; 7. Re: remove-brick question (james.bellinger@icecube.wisc.edu)<br> &nbsp; 8. Re: [rhos-list] [gluster-swift] Gluster UFO 3.4 swift Multi<br> &nbsp; &nbsp; &nbsp;tenant question (Luis Pabon)<br> &nbsp; 9. Re: Gluster 3.4 QEMU and Permission Denied Errors (Asias He)<br> &nbsp;10. Re: gluster volume top issue (Shishir Gowda)<br> &nbsp;11. Re: Gluster samba vfs read performance slow (kane)<br> &nbsp;12. Re: Gluster samba vfs read performance slow (Anand Avati)<br> &nbsp;13. Re: Gluster samba vfs read performance slow (kane)<br> &nbsp;14. Mounting same replica-volume on multiple clients. &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; ????<br> &nbsp; &nbsp; &nbsp;(Bobby Jacob)<br> &nbsp;15. Re: Gluster samba vfs read performance slow (Anand Avati)<br> &nbsp;16. Re: Mounting same replica-volume on multiple &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; clients. &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; ????<br> &nbsp; &nbsp; &nbsp;(Daniel M?ller)<br> &nbsp;17. Re: Gluster samba vfs read performance slow (kane)<br> &nbsp;18. Re: Mounting same replica-volume on multiple clients. &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; ????<br> &nbsp; &nbsp; &nbsp;(Bobby Jacob)<br> &nbsp;19. Re: Gluster samba vfs read performance slow (Anand Avati)<br> &nbsp;20. Re: Mounting same replica-volume on multiple &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; clients. &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; ????<br> &nbsp; &nbsp; &nbsp;(Daniel M?ller)<br> &nbsp;21. Re: Gluster samba vfs read performance slow (kane)<br> &nbsp;22. Re: [Gluster-devel] glusterfs-3.4.1qa2 released (Luk?? Bezdi?ka)<br> &nbsp;23. Re: Cant see files after network failure (Dragon)<br> &nbsp;24. Re: gluster volume top issue (Nux!)<br> &nbsp;25. Secure Setup / Separate GlusterFS / Encryption (Michael.OBrien)<br> &nbsp;26. Re: Cant see files after network failure (Krishnan Parthasarathi)<br> &nbsp;27. Re: Cant see files after network failure (Dragon)<br><br><br>----------------------------------------------------------------------<br><br>Message: 1<br>Date: Tue, 17 Sep 2013 13:01:39 +0100<br>From: Nux! &lt;nux@li.nux.ro&gt;<br>To: Gluster Users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] gluster volume top issue<br>Message-ID: &lt;3c99760fce535b37e28371a8221e670f@li.nux.ro&gt;<br>Content-Type: text/plain; charset=UTF-8; format=flowed<br><br>On 16.09.2013 11:22, Nux! wrote:<br>&gt; Hello,<br>&gt; <br>&gt; I'm trying to find out the most accessed (read from and/or written<br>&gt; to) file in a volume and &quot;gluster volume top&quot; does not seem
to be<br>&gt; helping me at all.<br>&gt; For example the following would only output the list of bricks:<br>&gt; gluster volume top xenvms write nfs brick localhost:/bricks/xenvms
or<br>&gt; gluster volume top xenvms write<br>&gt; <br>&gt; &quot;gluster volume top xenvms open&quot; says 0 fds opened for all
bricks.<br>&gt; <br>&gt; I'm sure there should be some activity on this volume as I have a<br>&gt; Xenserver reading &amp; writing at 200-300 Mbps to it over NFS.<br>&gt; <br>&gt; Any pointers?<br><br>Anyone?<br><br>-- <br>Sent from the Delta quadrant using Borg technology!<br><br>Nux!<br></font></tt><a href=www.nux.ro><tt><font size=2>www.nux.ro</font></tt></a><tt><font size=2><br><br><br>------------------------------<br><br>Message: 2<br>Date: Tue, 17 Sep 2013 08:13:01 -0400 (EDT)<br>From: Shishir Gowda &lt;sgowda@redhat.com&gt;<br>To: Nux! &lt;nux@li.nux.ro&gt;<br>Cc: Gluster Users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] gluster volume top issue<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;614027677.14062684.1379419981657.JavaMail.root@redhat.com&gt;<br>Content-Type: text/plain; charset=utf-8<br><br>Hi Nux,<br><br>Is only open count being shown as &quot;0&quot;, or all stats being shown
as &quot;0&quot;?<br><br>With regards,<br>Shishir<br>----- Original Message -----<br>From: &quot;Nux!&quot; &lt;nux@li.nux.ro&gt;<br>To: &quot;Gluster Users&quot; &lt;gluster-users@gluster.org&gt;<br>Sent: Tuesday, September 17, 2013 5:31:39 PM<br>Subject: Re: [Gluster-users] gluster volume top issue<br><br>On 16.09.2013 11:22, Nux! wrote:<br>&gt; Hello,<br>&gt; <br>&gt; I'm trying to find out the most accessed (read from and/or written<br>&gt; to) file in a volume and &quot;gluster volume top&quot; does not seem
to be<br>&gt; helping me at all.<br>&gt; For example the following would only output the list of bricks:<br>&gt; gluster volume top xenvms write nfs brick localhost:/bricks/xenvms
or<br>&gt; gluster volume top xenvms write<br>&gt; <br>&gt; &quot;gluster volume top xenvms open&quot; says 0 fds opened for all
bricks.<br>&gt; <br>&gt; I'm sure there should be some activity on this volume as I have a<br>&gt; Xenserver reading &amp; writing at 200-300 Mbps to it over NFS.<br>&gt; <br>&gt; Any pointers?<br><br>Anyone?<br><br>-- <br>Sent from the Delta quadrant using Borg technology!<br><br>Nux!<br></font></tt><a href=www.nux.ro><tt><font size=2>www.nux.ro</font></tt></a><tt><font size=2><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br></font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br><br><br>------------------------------<br><br>Message: 3<br>Date: Tue, 17 Sep 2013 14:16:05 +0100<br>From: Nux! &lt;nux@li.nux.ro&gt;<br>To: Shishir Gowda &lt;sgowda@redhat.com&gt;<br>Cc: Gluster Users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] gluster volume top issue<br>Message-ID: &lt;10854f971aad0d256b7a8440f6d7b243@li.nux.ro&gt;<br>Content-Type: text/plain; charset=UTF-8; format=flowed<br><br>On 17.09.2013 13:13, Shishir Gowda wrote:<br>&gt; Hi Nux,<br>&gt; <br>&gt; Is only open count being shown as &quot;0&quot;, or all stats being
shown as <br>&gt; &quot;0&quot;?<br><br>Hi Shishir,<br><br>For all bricks I get:<br>Current open fds: 0, Max open fds: 0, Max openfd time: N/A<br><br>Lucian<br><br>-- <br>Sent from the Delta quadrant using Borg technology!<br><br>Nux!<br></font></tt><a href=www.nux.ro><tt><font size=2>www.nux.ro</font></tt></a><tt><font size=2><br><br><br>------------------------------<br><br>Message: 4<br>Date: Tue, 17 Sep 2013 07:42:23 +0100<br>From: Cristiano Bianchi &lt;c.bianchi@keepthinking.it&gt;<br>To: gluster-users@gluster.org<br>Subject: [Gluster-users] Strange Sync Problem - FS not matching<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
GlusterFS<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;CAC=_txqvQfrmJMdZwPL4X15xtBDvcKH1s=dtdQh1bUy5qQikSA@mail.gmail.com&gt;<br>Content-Type: text/plain; charset=&quot;utf-8&quot;<br><br>Hi all,<br><br>we have a strange sync issue. Scenario:<br><br> &nbsp; - GlusterFS 3.2.5 with two nodes, N1 and N2, replicating over VLAN<br> &nbsp; - Both nodes share the /home folder, in both cases mounted on<br> &nbsp; /mnt/glusterfs/<br> &nbsp; - If I create file in N1 /mnt/glusterfs/user1/test.txt it shows
up in<br> &nbsp; /home/user1/test.txt - all normal<br> &nbsp; - It also shows up on N2 in /mnt/glusterfs/user1/test.txt - but
NOT (and<br> &nbsp; this is the odd part) in N2 /home/user1/<br> &nbsp; - If I do the same starting from N2, creating a file in N2<br> &nbsp; /mnt/glusterfs/user1/test.txt it all works: the file shows up in
N2<br> &nbsp; /home/user1, N1 /mnt/glusterfs/user1 and N1 /home/user1<br><br>My questions are (if they can be answered based on the info provided):<br><br> &nbsp; - What could have gone wrong and how to fix it?<br> &nbsp; - How do I re-sync the /home folder in N2 to match the content
of<br> &nbsp; glusterfs - which is correct in the virtual FS N2 /mnt/glusterfs<br><br>It seems that N2 has lost the wires between the glusterfs db and the 'real<br>world' of the filesystem.<br><br>With many thanks,<br>Cristiano<br><br>-- <br><br>Cristiano Bianchi<br>*Keepthinking*<br><br>43 Clerkenwell Road<br>London EC1M 5RS<br>tel +44 20 7490 5337<br>mobile +44 7939 041169 (UK)<br><br>c.bianchi@keepthinking.it<br></font></tt><a href=www.keepthinking.it><tt><font size=2>www.keepthinking.it</font></tt></a><tt><font size=2><br><br>---<br><br>Registration no. 04905582<br>VAT 831 1329 62<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/b0bbb260/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/b0bbb260/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 5<br>Date: Tue, 17 Sep 2013 14:36:56 +0100<br>From: Iain Buchanan &lt;iainbuc@gmail.com&gt;<br>To: Venky Shankar &lt;yknev.shankar@gmail.com&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] GlusterFS extended attributes, &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &quot;system&quot;<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
namespace<br>Message-ID: &lt;876CC0EB-2E5F-4827-B3ED-8F37E92BF108@gmail.com&gt;<br>Content-Type: text/plain; charset=&quot;windows-1252&quot;<br><br>Thanks - sorry for the delay responding. &nbsp;I switched it to running
as super-user and that has fixed the problem. &nbsp;I'll have to investigate
mount-broker in future.<br><br>Iain<br><br><br>On 5 Sep 2013, at 17:30, Venky Shankar &lt;yknev.shankar@gmail.com&gt;
wrote:<br><br>&gt; 'system' namespace is flipped to 'trusted' for geo-replication auxillary
mount. So, it should be left as 'system' in the source.<br>&gt; <br>&gt; I see that you're trying to connect to the remote slave as a non-super
user. For that, you'd need to access the slave via mount-broker, which
would require some modification in the glusterd volfile.<br>&gt; <br>&gt; Thanks,<br>&gt; -venky<br>&gt; <br>&gt; <br>&gt; On Thu, Sep 5, 2013 at 10:48 AM, Amar Tumballi &lt;amarts@redhat.com&gt;
wrote:<br>&gt; On 08/28/2013 11:15 PM, Iain Buchanan wrote:<br>&gt; Hi,<br>&gt; <br>&gt; I'm running GlusterFS 3.3.2 and I'm having trouble getting geo-replication
to work. &nbsp;I think it is a problem with extended attributes. &nbsp;I'll
using ssh with a normal user to perform the replication.<br>&gt; <br>&gt; On the server log in /var/log/glusterfs/geo-replication/VOLNAME/ssh?.log
I'm getting an error &quot;ReceClient: call ?:?:? (xtime) failed on peer
with OSError&quot;. &nbsp;On the replication target I'm getting the same
error, but with a stack trace leading back to where it tries to set extended
attributes in the Python replication code. &nbsp;It appears to be trying
to get the attribute &quot;system.glusterfs.xyz.xtime&quot; at line 365
of /usr/lib/glusterfs/glusterfs/python/syncdaemon/resource.py: &quot;Xattr.lgetxattr(path,
'.'.join([cls.GX_NSPACE, uuid, 'xtime')], 8))&quot;.<br>&gt; I don't know anything about extended attributes, but I can't get anything
in the &quot;system&quot; namespace manually, even running as root - e.g.<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; touch a<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; getfattr -n system.test a<br>&gt; <br>&gt; The above returns &quot;Operation not supported&quot; rather than
&quot;No such attribute&quot;. &nbsp;The &quot;user&quot; and &quot;trusted&quot;
namespace work fine - this is on ext3 with user_xattr set in the mount
options, and also on the server (ext4).<br>&gt; Yes, 'system' is not allowed to be used by a process.<br>&gt; <br>&gt; On the server side I can see files have things set in the &quot;trusted&quot;
namespace (e.g. with &quot;getfattr -m - filename&quot;).<br>&gt; <br>&gt; Should the setting of GX_NSPACE set the namespace to be &quot;system&quot;
for non-root or should it always be &quot;trusted&quot;? (line 248 in resource.py)
&nbsp;If I force it to be &quot;trusted&quot; it seems to get further (I
get occasional &quot;Operation not permitted&quot; lines, but I think this
is file permission related).<br>&gt; Looks like a bug. Please change 'system' to 'user' in resource.py
file, and see if it works.<br>&gt; <br>&gt; Regards,<br>&gt; Amar<br>&gt; <br>&gt; Iain<br>&gt; <br>&gt; <br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt; <br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt; <br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/53c6b075/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/53c6b075/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br>-------------- next part --------------<br>A non-text attachment was scrubbed...<br>Name: signature.asc<br>Type: application/pgp-signature<br>Size: 495 bytes<br>Desc: Message signed with OpenPGP using GPGMail<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/53c6b075/attachment-0001.sig"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/53c6b075/attachment-0001.sig</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 6<br>Date: Tue, 17 Sep 2013 07:59:16 -0600<br>From: Andrew Niemantsverdriet &lt;andrew@rocky.edu&gt;<br>To: Samuli Heinonen &lt;samppah@neutraali.net&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] Gluster 3.4 QEMU and Permission Denied<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Errors<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;CAGn8edbMouCUqi4Rpe=g5-_wPsksU3es8Mf-noB=sRYZxA7t-A@mail.gmail.com&gt;<br>Content-Type: text/plain; charset=ISO-8859-1<br><br>Right now I am just using virsh to start the machines, I have also<br>tried using Virtual Machine Manager to start them.<br><br>I have enabled Gluster mounting from insecure ports, forgot to mention<br>that in my first email. It looks like the disk mounts as it starts to<br>boot but nothing can be written to the disk as it just hangs in an<br>infinite loop.<br><br>Thanks,<br> _<br>/-\ ndrew<br><br>On Tue, Sep 17, 2013 at 1:05 AM, Samuli Heinonen &lt;samppah@neutraali.net&gt;
wrote:<br>&gt; Hello Andrew,<br>&gt;<br>&gt; How are you booting/managing VM's? Which user you use to launch them?<br>&gt;<br>&gt; Have you enabled Gluster mounting from insecure ports? It needs two
changes.<br>&gt; You have to edit glusterd.vol (in /etc/glusterfs directory) and add
line<br>&gt; &quot;option rpc-auth-allow-insecure on&quot;. Also you have to set
volume option<br>&gt; server.allow-insecure on (ie. gluster volume set volname<br>&gt; server.allow-insecure on). Restart of glusterd and stop and start
of the<br>&gt; volume is required for these changes to take effect.<br>&gt;<br>&gt; 16.9.2013 21:38, Andrew Niemantsverdriet kirjoitti:<br>&gt;<br>&gt;&gt; Hey List,<br>&gt;&gt;<br>&gt;&gt; I'm trying to test out using Gluster 3.4 for virtual machine disks.
My<br>&gt;&gt; enviroment consists of two Fedora 19 hosts with gluster and qemu/kvm<br>&gt;&gt; installed.<br>&gt;&gt;<br>&gt;&gt; I have a single volume on gluster called vmdata that contains
my qcow2<br>&gt;&gt; formated image created like this:<br>&gt;&gt;<br>&gt;&gt; qemu-img create -f qcow2 gluster://localhost/vmdata/test1.qcow
8G<br>&gt;&gt;<br>&gt;&gt; I'm able to boot my created virtual machine but in the logs I
see this:<br>&gt;&gt;<br>&gt;&gt; [2013-09-16 15:16:04.471205] E [addr.c:152:gf_auth] 0-auth/addr:<br>&gt;&gt; client is bound to port 46021 which is not privileged<br>&gt;&gt; [2013-09-16 15:16:04.471277] I<br>&gt;&gt; [server-handshake.c:567:server_setvolume] 0-vmdata-server: accepted<br>&gt;&gt; client from<br>&gt;&gt; gluster1.local-1061-2013/09/16-15:16:04:441166-vmdata-client-1-0<br>&gt;&gt; (version: 3.4.0)[2013-09-16 15:16:04.488000] I<br>&gt;&gt; [server-rpc-fops.c:1572:server_open_cbk] 0-vmdata-server: 18:
OPEN<br>&gt;&gt; /test1.qcow (6b63a78b-7d5c-4195-a172-5bb6ed1e7dac) ==&gt; (Permission<br>&gt;&gt; denied)<br>&gt;&gt;<br>&gt;&gt; I have turned off SELinux to be sure that isn't in the way. When
I<br>&gt;&gt; look at the permissions on the file using ls -l I see the file
is set<br>&gt;&gt; to 600, this doesn't seem right. I tried manually changing the<br>&gt;&gt; permission to 755 as a test and as soon as the machine booted
it was<br>&gt;&gt; changed back to 600.<br>&gt;&gt;<br>&gt;&gt; Any hints as to what is going on and how to get the disk functioning?<br>&gt;&gt; The machine will boot but as soon as anything is written to disk
it<br>&gt;&gt; will hang forever.<br>&gt;&gt;<br>&gt;&gt; Thanks,<br>&gt;&gt;<br>&gt;<br><br><br><br>-- <br> _<br>/-\ ndrew Niemantsverdriet<br>Linux System Administrator<br>Academic Computing<br>(406) 238-7360<br>Rocky Mountain College<br>1511 Poly Dr.<br>Billings MT, 59102<br><br><br>------------------------------<br><br>Message: 7<br>Date: Tue, 17 Sep 2013 09:47:14 -0500<br>From: james.bellinger@icecube.wisc.edu<br>To: &quot;Ravishankar N&quot; &lt;ravishankar@redhat.com&gt;<br>Cc: gluster-users@gluster.org<br>Subject: Re: [Gluster-users] remove-brick question<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;e47a5be41156fa52f47e44af55911c81.squirrel@webmail.icecube.wisc.edu&gt;<br>Content-Type: text/plain;charset=iso-8859-1<br><br>Thanks for your replies.<br><br>The vols seem to match the bricks ok.<br><br>FWIW, gfs-node01:/sda is the first brick; perhaps it is getting the lion's<br>share of the pointers?<br><br>The results of a log search and seem even more confusing. &nbsp;sdb drained<br>rather than sda, but an error in rebalancing shows up in sdd. &nbsp;I include<br>excerpts from scratch-rebalance, ls -l and getfattr, and bricks/sda<br><br>Does any of this suggest anything?<br><br>One failure is an apparent duplicate. &nbsp;This seems to refer to the
relevant<br>brick, and the date is correct.<br>[2013-09-15 19:10:07.620881] W [client3_1-fops.c:258:client3_1_mknod_cbk]<br>0-scratch-client-0: remote operation failed: File exists. Path:<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118906_Qtot1500.h5.out<br>(00000000-0000-0000-0000-000000000000)<br><br>On the array that actually drained (mostly):<br>[2013-09-15 19:10:19.483040] W [client3_1-fops.c:647:client3_1_unlink_cbk]<br>0-scratch-client-12: remote operation failed: No such file or directory<br>[2013-09-15 19:10:19.483122] W [client3_1-fops.c:647:client3_1_unlink_cbk]<br>0-scratch-client-12: remote operation failed: No such file or directory<br>[2013-09-15 19:10:19.494585] W [client3_1-fops.c:258:client3_1_mknod_cbk]<br>0-scratch-client-12: remote operation failed: File exists. Path:<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118429_Qtot1500.h5<br>(00000000-0000-0000-0000-000000000000)<br>[2013-09-15 19:10:19.494701] W [client3_1-fops.c:258:client3_1_mknod_cbk]<br>0-scratch-client-12: remote operation failed: File exists. Path:<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118429_Qtot1500.h5<br>(00000000-0000-0000-0000-000000000000)<br><br>An example failure where I can trace the files is an apparent duplicate:<br>gfs-node01 # grep -A2 -B2 Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>scratch-rebalance.log<br>[2013-09-15 19:10:30.164409] W [client3_1-fops.c:258:client3_1_mknod_cbk]<br>0-scratch-client-3: remote operation failed: File exists. Path:<br>/nwhitehorn/vetoblast/data/Level2a_IC79_data_Run00117874_Qtot1500.h5.out<br>(00000000-0000-0000-0000-000000000000)<br>[2013-09-15 19:10:30.164473] W [client3_1-fops.c:258:client3_1_mknod_cbk]<br>0-scratch-client-3: remote operation failed: File exists. Path:<br>/nwhitehorn/vetoblast/data/Level2a_IC79_data_Run00117874_Qtot1500.h5.out<br>(00000000-0000-0000-0000-000000000000)<br>[2013-09-15 19:10:30.176606] I<br>[dht-common.c:956:dht_lookup_everywhere_cbk] 0-scratch-dht: deleting stale<br>linkfile<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>on scratch-client-2<br>[2013-09-15 19:10:30.176717] I<br>[dht-common.c:956:dht_lookup_everywhere_cbk] 0-scratch-dht: deleting stale<br>linkfile<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>on scratch-client-2<br>[2013-09-15 19:10:30.176856] I<br>[dht-common.c:956:dht_lookup_everywhere_cbk] 0-scratch-dht: deleting stale<br>linkfile<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>on scratch-client-2<br>[2013-09-15 19:10:30.177232] W [client3_1-fops.c:647:client3_1_unlink_cbk]<br>0-scratch-client-2: remote operation failed: No such file or directory<br>[2013-09-15 19:10:30.177303] W [client3_1-fops.c:647:client3_1_unlink_cbk]<br>0-scratch-client-2: remote operation failed: No such file or directory<br>[2013-09-15 19:10:30.178101] W [client3_1-fops.c:258:client3_1_mknod_cbk]<br>0-scratch-client-3: remote operation failed: File exists. Path:<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>(00000000-0000-0000-0000-000000000000)<br>[2013-09-15 19:10:30.178150] W [client3_1-fops.c:258:client3_1_mknod_cbk]<br>0-scratch-client-3: remote operation failed: File exists. Path:<br>/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>(00000000-0000-0000-0000-000000000000)<br>[2013-09-15 19:10:30.192605] W<br>[client3_1-fops.c:2566:client3_1_opendir_cbk] 0-scratch-client-7: remote<br>operation failed: No such file or directory. Path:<br>/nwhitehorn/vetoblast/data (00000000-0000-0000-0000-000000000000)<br>[2013-09-15 19:10:30.192830] W<br>[client3_1-fops.c:2566:client3_1_opendir_cbk] 0-scratch-client-7: remote<br>operation failed: No such file or directory. Path:<br>/nwhitehorn/vetoblast/data (00000000-0000-0000-0000-000000000000)<br><br>gfs-node01 # ls -l<br>/sdd/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>---------T 2 34037 40978 0 Sep 15 14:10<br>/sdd/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>gfs-node01 # ssh i3admin@gfs-node06 sudo ls -l<br>/sdb/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>-rw-r--r-- 2 34037 40978 715359 May &nbsp;1 22:28<br>/sdb/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br><br>gfs-node01 # &nbsp;getfattr -d -m . -e hex <br>/sdd/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br># file:<br>sdd/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>trusted.gfid=0x11fb3ffd87be4ce3a88576466279819f<br>trusted.glusterfs.dht.linkto=0x736372617463682d636c69656e742d313200<br>gfs-node01 &nbsp;# ssh i3admin@gfs-node06 sudo &nbsp;getfattr -d -m . -e
hex <br>/sdb/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br># file:<br>sdb/nwhitehorn/vetoblast/data/Level2_IC86.2011_data_Run00118218_Qtot1500.h5<br>trusted.gfid=0x11fb3ffd87be4ce3a88576466279819f<br><br>Further.<br># &nbsp;getfattr -d -m . -e hex &nbsp;/sdd<br># file: sdd<br>trusted.gfid=0x00000000000000000000000000000001<br>trusted.glusterfs.dht=0x0000000100000000bffffffdd5555551<br>trusted.glusterfs.volume-id=0xde1fbb473e5a45dc8df804f7f73a3ecc<br><br>gfs-node01 # &nbsp;getfattr -d -m . -e hex &nbsp;/sdc<br># file: sdc<br>trusted.gfid=0x00000000000000000000000000000001<br>trusted.glusterfs.dht=0x0000000100000000aaaaaaa8bffffffc<br>trusted.glusterfs.volume-id=0xde1fbb473e5a45dc8df804f7f73a3ecc<br><br>gfs-node01 # getfattr -d -m . -e hex &nbsp;/sdb<br># file: sdb<br>trusted.gfid=0x00000000000000000000000000000001<br>trusted.glusterfs.dht=0x00000001000000000000000000000000<br>trusted.glusterfs.volume-id=0xde1fbb473e5a45dc8df804f7f73a3ecc<br><br>gfs-node01 # &nbsp;getfattr -d -m . -e hex &nbsp;/sda<br># file: sda<br>trusted.gfid=0x00000000000000000000000000000001<br>trusted.glusterfs.dht=0x0000000100000000555555546aaaaaa8<br>trusted.glusterfs.volume-id=0xde1fbb473e5a45dc8df804f7f73a3ecc<br><br>gfs-node01 # ssh i3admin@gfs-node04 sudo getfattr -d -m . -e hex &nbsp;/sdb<br># file: sdb<br>trusted.gfid=0x00000000000000000000000000000001<br>trusted.glusterfs.dht=0x00000001000000002aaaaaaa3ffffffe<br>trusted.glusterfs.volume-id=0xde1fbb473e5a45dc8df804f7f73a3ecc<br><br><br><br>bricks/sda etc logs have a rather monotonous<br>[2013-09-16 22:23:01.723146] I [server-handshake.c:571:server_setvolume]<br>0-scratch-server: accepted client from<br>node086-11928-2013/09/16-22:22:57:696729-scratch-client-0-0 (version:<br>3.3.2)<br>[2013-09-16 22:23:01.769154] I [server.c:703:server_rpc_notify]<br>0-scratch-server: disconnecting connectionfrom<br>node086-11928-2013/09/16-22:22:57:696729-scratch-client-0-0<br>[2013-09-16 22:23:01.769211] I<br>[server-helpers.c:741:server_connection_put] 0-scratch-server: Shutting<br>down connection<br>node086-11928-2013/09/16-22:22:57:696729-scratch-client-0-0<br>[2013-09-16 22:23:01.769253] I<br>[server-helpers.c:629:server_connection_destroy] 0-scratch-server:<br>destroyed connection of<br>node086-11928-2013/09/16-22:22:57:696729-scratch-client-0-0<br><br>&gt; On 09/17/2013 03:26 AM, james.bellinger@icecube.wisc.edu wrote:<br>&gt;&gt; I inherited a system with a wide mix of array sizes (no replication)
in<br>&gt;&gt; 3.2.2, and wanted to drain data from a failing array.<br>&gt;&gt;<br>&gt;&gt; I upgraded to 3.3.2, and began a<br>&gt;&gt; gluster volume remove-brick scratch &quot;gfs-node01:/sda&quot;
start<br>&gt;&gt;<br>&gt;&gt; After some time I got this:<br>&gt;&gt; gluster volume remove-brick scratch &quot;gfs-node01:/sda&quot;
status<br>&gt;&gt; Node Rebalanced-files &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;size &nbsp;
&nbsp; &nbsp; scanned &nbsp; &nbsp; &nbsp;failures<br>&gt;&gt; status<br>&gt;&gt; &nbsp; --------- &nbsp; &nbsp; &nbsp;----------- &nbsp; -----------
&nbsp; ----------- &nbsp; -----------<br>&gt;&gt; ------------<br>&gt;&gt; localhost &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0
&nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0<br>&gt;&gt; not started<br>&gt;&gt; gfs-node06 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0
&nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0<br>&gt;&gt; not started<br>&gt;&gt; gfs-node03 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0
&nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0<br>&gt;&gt; not started<br>&gt;&gt; gfs-node05 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;0
&nbsp; &nbsp; &nbsp; &nbsp;0Bytes &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0<br>&gt;&gt; not started<br>&gt;&gt; gfs-node01 &nbsp; &nbsp; &nbsp; 2257394624 &nbsp; &nbsp; &nbsp;
&nbsp; 2.8TB &nbsp; &nbsp; &nbsp; 5161640 &nbsp; &nbsp; &nbsp; &nbsp;208878<br>&gt;&gt; completed<br>&gt;&gt;<br>&gt;&gt; Two things jump instantly to mind:<br>&gt;&gt; 1) The number of failures is rather large<br>&gt; Can you see the rebalance logs (/var/log/scratch-rebalance.log) to<br>&gt; figure out what the error messages are?<br>&gt;&gt; 2) A _different_ disk seems to have been _partially_ drained.<br>&gt;&gt; /dev/sda &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.8T
&nbsp;2.7T &nbsp; 12G 100% /sda<br>&gt;&gt; /dev/sdb &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.8T
&nbsp;769G &nbsp;2.0T &nbsp;28% /sdb<br>&gt;&gt; /dev/sdc &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.8T
&nbsp;2.1T &nbsp;698G &nbsp;75% /sdc<br>&gt;&gt; /dev/sdd &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2.8T
&nbsp;2.2T &nbsp;589G &nbsp;79% /sdd</font></tt><br><tt><font size=2>&gt;&gt;<br>&gt;&gt;<br>&gt; I know this sounds silly, but just to be sure, is &nbsp;/dev/sda actually<br>&gt; mounted on &quot;gfs-node01:sda&quot;?<br>&gt; If yes,the files that _were_ successfully rebalanced should have been<br>&gt; moved from gfs-node01:sda to one of the other bricks. Is that the
case?<br>&gt;<br>&gt;&gt; When I mount the system it is read-only (another problem I want
to fix<br>&gt; Again, the mount logs could shed some information ..<br>&gt; (btw a successful rebalance start/status sequence should be followed
by<br>&gt; the rebalance 'commit' command to ensure the volume information gets<br>&gt; updated)<br>&gt;<br>&gt;&gt; ASAP) so I'm pretty sure the failures aren't due to users changing
the<br>&gt;&gt; system underneath me.<br>&gt;&gt;<br>&gt;&gt; Thanks for any pointers.<br>&gt;&gt;<br>&gt;&gt; James Bellinger<br>&gt;&gt;<br>&gt;&gt; _______________________________________________<br>&gt;&gt; Gluster-users mailing list<br>&gt;&gt; Gluster-users@gluster.org<br>&gt;&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt;<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt;<br><br><br><br><br>------------------------------<br><br>Message: 8<br>Date: Tue, 17 Sep 2013 13:52:12 -0400<br>From: Luis Pabon &lt;lpabon@redhat.com&gt;<br>To: Paul Robert Marino &lt;prmarino1@gmail.com&gt;<br>Cc: &quot;rhos-list@redhat.com&quot; &lt;rhos-list@redhat.com&gt;, &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Ramana
Raja<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;rraja@redhat.com&gt;, gluster-users@gluster.org, &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; Chetan Risbud<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;crisbud@redhat.com&gt;<br>Subject: Re: [Gluster-users] [rhos-list] [gluster-swift] Gluster UFO<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
3.4 swift Multi tenant question<br>Message-ID: &lt;523896CC.70105@redhat.com&gt;<br>Content-Type: text/plain; charset=ISO-8859-1; format=flowed<br><br><br>On 09/17/2013 11:13 AM, Paul Robert Marino wrote:<br>&gt; Luis<br>&gt; well thats intresting because it was my impression that Gluster UFO<br>&gt; 3.4 was based on the Grizzly version of Swift.<br>[LP] Sorry, the gluster-ufo RPM is Essex only.<br><br>&gt; Also I was previously unaware of this new rpm which doesnt seem to
be<br>&gt; in a repo any where.<br>[LP] gluster-swift project RPMs have been submitted to Fedora and are <br>currently being reviewed.<br><br>&gt; also there is a line in this new howto that is extreamly unclear<br>&gt;<br>&gt; &quot;<br>&gt; /usr/bin/gluster-swift-gen-builders test<br>&gt; &quot;<br>&gt; in place of &quot;test&quot; what should go there is it the tenant
ID string,<br>&gt; the tenant name, or just a generic volume you can name whatever you<br>&gt; want?<br>&gt; in other words how should the Gluster volumes be named?<br>[LP] We will clarify that in the quick start guide. &nbsp;Thank you for
<br>pointing it out. &nbsp;While we update the community site, please refer
to <br>the documentation available here </font></tt><a href=http://goo.gl/bQFI8o><tt><font size=2>http://goo.gl/bQFI8o</font></tt></a><tt><font size=2>for a usage guide.<br><br>As for the tool, the format is:<br>gluster-swift-gen-buildes [VOLUME] [VOLUME...]<br><br>Where VOLUME is the name of the GlusterFS volume to use for object <br>storage. For example<br>if the following two GlusterFS volumes, volume1 and volume2, need to be
<br>accessed over Swift,<br>then you can type the following:<br><br># gluster-swift-gen-builders volume1 volume2<br><br>For more information please read: </font></tt><a href=http://goo.gl/gd8LkW><tt><font size=2>http://goo.gl/gd8LkW</font></tt></a><tt><font size=2><br><br>Let us know if you have any more questions or comments.<br><br>- Luis<br>&gt;<br>&gt;<br>&gt; On Tue, Sep 17, 2013 at 10:10 AM, Luis Pabon &lt;lpabon@redhat.com&gt;
wrote:<br>&gt;&gt; First thing I can see is that you have Essex based gluster-ufo-*
which has<br>&gt;&gt; been replaced by the gluster-swift project. &nbsp;We are currently
in progress of<br>&gt;&gt; replacing the gluster-ufo-* with RPMs from the gluster-swift project
in<br>&gt;&gt; Fedora.<br>&gt;&gt;<br>&gt;&gt; Please checkout the following quickstart guide which show how
to download<br>&gt;&gt; the Grizzly version of gluster-swift:<br>&gt;&gt; </font></tt><a href="https://github.com/gluster/gluster-swift/blob/master/doc/markdown/quick_start_guide.md"><tt><font size=2>https://github.com/gluster/gluster-swift/blob/master/doc/markdown/quick_start_guide.md</font></tt></a><tt><font size=2><br>&gt;&gt; .<br>&gt;&gt;<br>&gt;&gt; For more information please visit: </font></tt><a href="https://launchpad.net/gluster-swift"><tt><font size=2>https://launchpad.net/gluster-swift</font></tt></a><tt><font size=2><br>&gt;&gt;<br>&gt;&gt; - Luis<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; On 09/16/2013 05:02 PM, Paul Robert Marino wrote:<br>&gt;&gt;<br>&gt;&gt; Sorry for the delay on reporting the details. I got temporarily
pulled<br>&gt;&gt; off the project and dedicated to a different project which was<br>&gt;&gt; considered higher priority by my employer. I'm just getting back
to<br>&gt;&gt; doing my normal work today.<br>&gt;&gt;<br>&gt;&gt; first here are the rpms I have installed<br>&gt;&gt; &quot;<br>&gt;&gt; &nbsp; rpm -qa |grep -P -i '(gluster|swift)'<br>&gt;&gt; glusterfs-libs-3.4.0-8.el6.x86_64<br>&gt;&gt; glusterfs-server-3.4.0-8.el6.x86_64<br>&gt;&gt; openstack-swift-plugin-swift3-1.0.0-0.20120711git.el6.noarch<br>&gt;&gt; openstack-swift-proxy-1.8.0-2.el6.noarch<br>&gt;&gt; glusterfs-3.4.0-8.el6.x86_64<br>&gt;&gt; glusterfs-cli-3.4.0-8.el6.x86_64<br>&gt;&gt; glusterfs-geo-replication-3.4.0-8.el6.x86_64<br>&gt;&gt; glusterfs-api-3.4.0-8.el6.x86_64<br>&gt;&gt; openstack-swift-1.8.0-2.el6.noarch<br>&gt;&gt; openstack-swift-container-1.8.0-2.el6.noarch<br>&gt;&gt; openstack-swift-object-1.8.0-2.el6.noarch<br>&gt;&gt; glusterfs-fuse-3.4.0-8.el6.x86_64<br>&gt;&gt; glusterfs-rdma-3.4.0-8.el6.x86_64<br>&gt;&gt; openstack-swift-account-1.8.0-2.el6.noarch<br>&gt;&gt; glusterfs-ufo-3.4.0-8.el6.noarch<br>&gt;&gt; glusterfs-vim-3.2.7-1.el6.x86_64<br>&gt;&gt; python-swiftclient-1.4.0-1.el6.noarch<br>&gt;&gt;<br>&gt;&gt; here are some key config files note I've changed the passwords
I'm<br>&gt;&gt; using and hostnames<br>&gt;&gt; &quot;<br>&gt;&gt; &nbsp; cat /etc/swift/account-server.conf<br>&gt;&gt; [DEFAULT]<br>&gt;&gt; mount_check = true<br>&gt;&gt; bind_port = 6012<br>&gt;&gt; user = root<br>&gt;&gt; log_facility = LOG_LOCAL2<br>&gt;&gt; devices = /swift/tenants/<br>&gt;&gt;<br>&gt;&gt; [pipeline:main]<br>&gt;&gt; pipeline = account-server<br>&gt;&gt;<br>&gt;&gt; [app:account-server]<br>&gt;&gt; use = egg:gluster_swift_ufo#account<br>&gt;&gt; log_name = account-server<br>&gt;&gt; log_level = DEBUG<br>&gt;&gt; log_requests = true<br>&gt;&gt;<br>&gt;&gt; [account-replicator]<br>&gt;&gt; vm_test_mode = yes<br>&gt;&gt;<br>&gt;&gt; [account-auditor]<br>&gt;&gt;<br>&gt;&gt; [account-reaper]<br>&gt;&gt;<br>&gt;&gt; &quot;<br>&gt;&gt;<br>&gt;&gt; &quot;<br>&gt;&gt; &nbsp; cat /etc/swift/container-server.conf<br>&gt;&gt; [DEFAULT]<br>&gt;&gt; devices = /swift/tenants/<br>&gt;&gt; mount_check = true<br>&gt;&gt; bind_port = 6011<br>&gt;&gt; user = root<br>&gt;&gt; log_facility = LOG_LOCAL2<br>&gt;&gt;<br>&gt;&gt; [pipeline:main]<br>&gt;&gt; pipeline = container-server<br>&gt;&gt;<br>&gt;&gt; [app:container-server]<br>&gt;&gt; use = egg:gluster_swift_ufo#container<br>&gt;&gt;<br>&gt;&gt; [container-replicator]<br>&gt;&gt; vm_test_mode = yes<br>&gt;&gt;<br>&gt;&gt; [container-updater]<br>&gt;&gt;<br>&gt;&gt; [container-auditor]<br>&gt;&gt;<br>&gt;&gt; [container-sync]<br>&gt;&gt; &quot;<br>&gt;&gt;<br>&gt;&gt; &quot;<br>&gt;&gt; &nbsp; cat /etc/swift/object-server.conf<br>&gt;&gt; [DEFAULT]<br>&gt;&gt; mount_check = true<br>&gt;&gt; bind_port = 6010<br>&gt;&gt; user = root<br>&gt;&gt; log_facility = LOG_LOCAL2<br>&gt;&gt; devices = /swift/tenants/<br>&gt;&gt;<br>&gt;&gt; [pipeline:main]<br>&gt;&gt; pipeline = object-server<br>&gt;&gt;<br>&gt;&gt; [app:object-server]<br>&gt;&gt; use = egg:gluster_swift_ufo#object<br>&gt;&gt;<br>&gt;&gt; [object-replicator]<br>&gt;&gt; vm_test_mode = yes<br>&gt;&gt;<br>&gt;&gt; [object-updater]<br>&gt;&gt;<br>&gt;&gt; [object-auditor]<br>&gt;&gt; &quot;<br>&gt;&gt;<br>&gt;&gt; &quot;<br>&gt;&gt; cat /etc/swift/proxy-server.conf<br>&gt;&gt; [DEFAULT]<br>&gt;&gt; bind_port = 8080<br>&gt;&gt; user = root<br>&gt;&gt; log_facility = LOG_LOCAL1<br>&gt;&gt; log_name = swift<br>&gt;&gt; log_level = DEBUG<br>&gt;&gt; log_headers = True<br>&gt;&gt;<br>&gt;&gt; [pipeline:main]<br>&gt;&gt; pipeline = healthcheck cache authtoken keystone proxy-server<br>&gt;&gt;<br>&gt;&gt; [app:proxy-server]<br>&gt;&gt; use = egg:gluster_swift_ufo#proxy<br>&gt;&gt; allow_account_management = true<br>&gt;&gt; account_autocreate = true<br>&gt;&gt;<br>&gt;&gt; [filter:tempauth]<br>&gt;&gt; use = egg:swift#tempauth<br>&gt;&gt; # Here you need to add users explicitly. See the OpenStack Swift
Deployment<br>&gt;&gt; # Guide for more information. The user and user64 directives take
the<br>&gt;&gt; # following form:<br>&gt;&gt; # &nbsp; &nbsp; user_&lt;account&gt;_&lt;username&gt; = &lt;key&gt;
[group] [group] [...] [storage_url]<br>&gt;&gt; # &nbsp; &nbsp; user64_&lt;account_b64&gt;_&lt;username_b64&gt;
= &lt;key&gt; [group] [group]<br>&gt;&gt; [...] [storage_url]<br>&gt;&gt; # Where you use user64 for accounts and/or usernames that include<br>&gt;&gt; underscores.<br>&gt;&gt; #<br>&gt;&gt; # NOTE (and WARNING): The account name must match the device name
specified<br>&gt;&gt; # when generating the account, container, and object build rings.<br>&gt;&gt; #<br>&gt;&gt; # E.g.<br>&gt;&gt; # &nbsp; &nbsp; user_ufo0_admin = abc123 .admin<br>&gt;&gt;<br>&gt;&gt; [filter:healthcheck]<br>&gt;&gt; use = egg:swift#healthcheck<br>&gt;&gt;<br>&gt;&gt; [filter:cache]<br>&gt;&gt; use = egg:swift#memcache<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; [filter:keystone]<br>&gt;&gt; use = egg:swift#keystoneauth<br>&gt;&gt; #paste.filter_factory = keystone.middleware.swift_auth:filter_factory<br>&gt;&gt; operator_roles = Member,admin,swiftoperator<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; [filter:authtoken]<br>&gt;&gt; paste.filter_factory = keystone.middleware.auth_token:filter_factory<br>&gt;&gt; auth_host = keystone01.vip.my.net<br>&gt;&gt; auth_port = 35357<br>&gt;&gt; auth_protocol = http<br>&gt;&gt; admin_user = swift<br>&gt;&gt; admin_password = PASSWORD<br>&gt;&gt; admin_tenant_name = service<br>&gt;&gt; signing_dir = /var/cache/swift<br>&gt;&gt; service_port = 5000<br>&gt;&gt; service_host = keystone01.vip.my.net<br>&gt;&gt;<br>&gt;&gt; [filter:swiftauth]<br>&gt;&gt; use = egg:keystone#swiftauth<br>&gt;&gt; auth_host = keystone01.vip.my.net<br>&gt;&gt; auth_port = 35357<br>&gt;&gt; auth_protocol = http<br>&gt;&gt; keystone_url = </font></tt><a href=https://keystone01.vip.my.net:5000/v2.0><tt><font size=2>https://keystone01.vip.my.net:5000/v2.0</font></tt></a><tt><font size=2><br>&gt;&gt; admin_user = swift<br>&gt;&gt; admin_password = PASSWORD<br>&gt;&gt; admin_tenant_name = service<br>&gt;&gt; signing_dir = /var/cache/swift<br>&gt;&gt; keystone_swift_operator_roles = Member,admin,swiftoperator<br>&gt;&gt; keystone_tenant_user_admin = true<br>&gt;&gt;<br>&gt;&gt; [filter:catch_errors]<br>&gt;&gt; use = egg:swift#catch_errors<br>&gt;&gt; &quot;<br>&gt;&gt;<br>&gt;&gt; &quot;<br>&gt;&gt; cat /etc/swift/swift.conf<br>&gt;&gt; [DEFAULT]<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; [swift-hash]<br>&gt;&gt; # random unique string that can never change (DO NOT LOSE)<br>&gt;&gt; swift_hash_path_suffix = gluster<br>&gt;&gt; #3d60c9458bb77abe<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # The swift-constraints section sets the basic constraints on
data<br>&gt;&gt; # saved in the swift cluster.<br>&gt;&gt;<br>&gt;&gt; [swift-constraints]<br>&gt;&gt;<br>&gt;&gt; # max_file_size is the largest &quot;normal&quot; object that
can be saved in<br>&gt;&gt; # the cluster. This is also the limit on the size of each segment
of<br>&gt;&gt; # a &quot;large&quot; object when using the large object manifest
support.<br>&gt;&gt; # This value is set in bytes. Setting it to lower than 1MiB will
cause<br>&gt;&gt; # some tests to fail. It is STRONGLY recommended to leave this
value at<br>&gt;&gt; # the default (5 * 2**30 + 2).<br>&gt;&gt;<br>&gt;&gt; # FIXME: Really? Gluster can handle a 2^64 sized file? And can
the fronting<br>&gt;&gt; # web service handle such a size? I think with UFO, we need to
keep with the<br>&gt;&gt; # default size from Swift and encourage users to research what
size their<br>&gt;&gt; web<br>&gt;&gt; # services infrastructure can handle.<br>&gt;&gt;<br>&gt;&gt; max_file_size = 18446744073709551616<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # max_meta_name_length is the max number of bytes in the utf8
encoding<br>&gt;&gt; # of the name portion of a metadata header.<br>&gt;&gt;<br>&gt;&gt; #max_meta_name_length = 128<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # max_meta_value_length is the max number of bytes in the utf8
encoding<br>&gt;&gt; # of a metadata value<br>&gt;&gt;<br>&gt;&gt; #max_meta_value_length = 256<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # max_meta_count is the max number of metadata keys that can be
stored<br>&gt;&gt; # on a single account, container, or object<br>&gt;&gt;<br>&gt;&gt; #max_meta_count = 90<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # max_meta_overall_size is the max number of bytes in the utf8
encoding<br>&gt;&gt; # of the metadata (keys + values)<br>&gt;&gt;<br>&gt;&gt; #max_meta_overall_size = 4096<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # max_object_name_length is the max number of bytes in the utf8
encoding of<br>&gt;&gt; an<br>&gt;&gt; # object name: Gluster FS can handle much longer file names, but
the length<br>&gt;&gt; # between the slashes of the URL is handled below. Remember that
most web<br>&gt;&gt; # clients can't handle anything greater than 2048, and those that
do are<br>&gt;&gt; # rather clumsy.<br>&gt;&gt;<br>&gt;&gt; max_object_name_length = 2048<br>&gt;&gt;<br>&gt;&gt; # max_object_name_component_length (GlusterFS) is the max number
of bytes in<br>&gt;&gt; # the utf8 encoding of an object name component (the part between
the<br>&gt;&gt; # slashes); this is a limit imposed by the underlying file system
(for XFS<br>&gt;&gt; it<br>&gt;&gt; # is 255 bytes).<br>&gt;&gt;<br>&gt;&gt; max_object_name_component_length = 255<br>&gt;&gt;<br>&gt;&gt; # container_listing_limit is the default (and max) number of items<br>&gt;&gt; # returned for a container listing request<br>&gt;&gt;<br>&gt;&gt; #container_listing_limit = 10000<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # account_listing_limit is the default (and max) number of items
returned<br>&gt;&gt; # for an account listing request<br>&gt;&gt;<br>&gt;&gt; #account_listing_limit = 10000<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # max_account_name_length is the max number of bytes in the utf8
encoding of<br>&gt;&gt; # an account name: Gluster FS Filename limit (XFS limit?), must
be the same<br>&gt;&gt; # size as max_object_name_component_length above.<br>&gt;&gt;<br>&gt;&gt; max_account_name_length = 255<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; # max_container_name_length is the max number of bytes in the
utf8 encoding<br>&gt;&gt; # of a container name: Gluster FS Filename limit (XFS limit?),
must be the<br>&gt;&gt; same<br>&gt;&gt; # size as max_object_name_component_length above.<br>&gt;&gt;<br>&gt;&gt; max_container_name_length = 255<br>&gt;&gt;<br>&gt;&gt; &quot;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; The volumes<br>&gt;&gt; &quot;<br>&gt;&gt; &nbsp; gluster volume list<br>&gt;&gt; cindervol<br>&gt;&gt; unified-storage-vol<br>&gt;&gt; a07d2f39117c4e5abdeba722cf245828<br>&gt;&gt; bd74a005f08541b9989e392a689be2fc<br>&gt;&gt; f6da0a8151ff43b7be10d961a20c94d6<br>&gt;&gt; &quot;<br>&gt;&gt;<br>&gt;&gt; if I run the command<br>&gt;&gt; &quot;<br>&gt;&gt; &nbsp; gluster-swift-gen-builders unified-storage-vol<br>&gt;&gt; a07d2f39117c4e5abdeba722cf245828 bd74a005f08541b9989e392a689be2fc<br>&gt;&gt; f6da0a8151ff43b7be10d961a20c94d6<br>&gt;&gt; &quot;<br>&gt;&gt;<br>&gt;&gt; because of a change in the script in this version as compaired
to the<br>&gt;&gt; version I got from<br>&gt;&gt; </font></tt><a href=http://repos.fedorapeople.org/repos/kkeithle/glusterfs/><tt><font size=2>http://repos.fedorapeople.org/repos/kkeithle/glusterfs/</font></tt></a><tt><font size=2>the<br>&gt;&gt; gluster-swift-gen-builders script only takes the first option
and<br>&gt;&gt; ignores the rest.<br>&gt;&gt;<br>&gt;&gt; other than the location of the config files none of the changes
Ive<br>&gt;&gt; made are functionally different than the ones mentioned in<br>&gt;&gt; </font></tt><a href="http://www.gluster.org/2012/09/howto-using-ufo-swift-a-quick-and-dirty-setup-guide/"><tt><font size=2>http://www.gluster.org/2012/09/howto-using-ufo-swift-a-quick-and-dirty-setup-guide/</font></tt></a><tt><font size=2><br>&gt;&gt;<br>&gt;&gt; The result is that the first volume named &quot;unified-storage-vol&quot;
winds<br>&gt;&gt; up being used for every thing regardless of the tenant, and users
and<br>&gt;&gt; see and manage each others objects regardless of what tenant they
are<br>&gt;&gt; members of.<br>&gt;&gt; through the swift command or via horizon.<br>&gt;&gt;<br>&gt;&gt; In a way this is a good thing for me it simplifies thing significantly<br>&gt;&gt; and would be fine if it just created a directory for each tenant
and<br>&gt;&gt; only allow the user to access the individual directories, not
the<br>&gt;&gt; whole gluster volume.<br>&gt;&gt; by the way seeing every thing includes the service tenants data
so<br>&gt;&gt; unprivileged users can delete glance images without being a member
of<br>&gt;&gt; the service group.<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; On Mon, Sep 2, 2013 at 9:58 PM, Paul Robert Marino &lt;prmarino1@gmail.com&gt;<br>&gt;&gt; wrote:<br>&gt;&gt;<br>&gt;&gt; Well I'll give you the full details in the morning but simply
I used the<br>&gt;&gt; stock cluster ring builder script that came with the 3.4 rpms
and the old<br>&gt;&gt; version from 3.3 took the list of volumes and would add all of
them the<br>&gt;&gt; version with 3.4 only takes the first one.<br>&gt;&gt;<br>&gt;&gt; Well I ran the script expecting the same behavior but instead
they all used<br>&gt;&gt; the first volume in the list.<br>&gt;&gt;<br>&gt;&gt; Now I knew from the docs I read that the per tenant directories
in a single<br>&gt;&gt; volume were one possible plan for 3.4 to deal with the scalding
issue with a<br>&gt;&gt; large number of tenants, so when I saw the difference in the script
and that<br>&gt;&gt; it worked I just assumed that this was done and I missed something.<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; -- Sent from my HP Pre3<br>&gt;&gt;<br>&gt;&gt; ________________________________<br>&gt;&gt; On Sep 2, 2013 20:55, Ramana Raja &lt;rraja@redhat.com&gt; wrote:<br>&gt;&gt;<br>&gt;&gt; Hi Paul,<br>&gt;&gt;<br>&gt;&gt; Currently, gluster-swift doesn't support the feature of multiple<br>&gt;&gt; accounts/tenants accessing the same volume. Each tenant still
needs his own<br>&gt;&gt; gluster volume. So I'm wondering how you were able to observe
the reported<br>&gt;&gt; behaviour.<br>&gt;&gt;<br>&gt;&gt; How did you prepare the ringfiles for the different tenants, which
use the<br>&gt;&gt; same gluster volume? Did you change the configuration of the servers?
Also,<br>&gt;&gt; how did you access the files that you mention? It'd be helpful
if you could<br>&gt;&gt; share the commands you used to perform these actions.<br>&gt;&gt;<br>&gt;&gt; Thanks,<br>&gt;&gt;<br>&gt;&gt; Ram<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; ----- Original Message -----<br>&gt;&gt; From: &quot;Vijay Bellur&quot; &lt;vbellur@redhat.com&gt;<br>&gt;&gt; To: &quot;Paul Robert Marino&quot; &lt;prmarino1@gmail.com&gt;<br>&gt;&gt; Cc: rhos-list@redhat.com, &quot;Luis Pabon&quot; &lt;lpabon@redhat.com&gt;,
&quot;Ramana Raja&quot;<br>&gt;&gt; &lt;rraja@redhat.com&gt;, &quot;Chetan Risbud&quot; &lt;crisbud@redhat.com&gt;<br>&gt;&gt; Sent: Monday, September 2, 2013 4:17:51 PM<br>&gt;&gt; Subject: Re: [rhos-list] Gluster UFO 3.4 swift Multi tenant question<br>&gt;&gt;<br>&gt;&gt; On 09/02/2013 01:39 AM, Paul Robert Marino wrote:<br>&gt;&gt;<br>&gt;&gt; I have Gluster UFO installed as a back end for swift from here<br>&gt;&gt; </font></tt><a href="http://download.gluster.org/pub/gluster/glusterfs/3.4/3.4.0/RHEL/epel-6/"><tt><font size=2>http://download.gluster.org/pub/gluster/glusterfs/3.4/3.4.0/RHEL/epel-6/</font></tt></a><tt><font size=2><br>&gt;&gt; with RDO 3<br>&gt;&gt;<br>&gt;&gt; Its working well except for one thing. All of the tenants are
seeing<br>&gt;&gt; one Gluster volume which is some what nice, especially when compared<br>&gt;&gt; to the old 3.3 behavior of creating one volume per tenant named
after<br>&gt;&gt; the tenant ID number.<br>&gt;&gt;<br>&gt;&gt; The problem is I expected to see is sub directory created under
the<br>&gt;&gt; volume root for each tenant but instead what in seeing is that
all of<br>&gt;&gt; the tenants can see the root of the Gluster volume. The result
is that<br>&gt;&gt; all of the tenants can access each others files and even delete
them.<br>&gt;&gt; even scarier is that the tennants can see and delete each others<br>&gt;&gt; glance images and snapshots.<br>&gt;&gt;<br>&gt;&gt; Can any one suggest options to look at or documents to read to
try to<br>&gt;&gt; figure out how to modify the behavior?<br>&gt;&gt;<br>&gt;&gt; Adding gluster swift developers who might be able to help.<br>&gt;&gt;<br>&gt;&gt; -Vijay<br>&gt;&gt;<br>&gt;&gt;<br><br><br><br>------------------------------<br><br>Message: 9<br>Date: Wed, 18 Sep 2013 07:39:56 +0800<br>From: Asias He &lt;asias.hejun@gmail.com&gt;<br>To: Andrew Niemantsverdriet &lt;andrew@rocky.edu&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] Gluster 3.4 QEMU and Permission Denied<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Errors<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;CAFO3S41gLLdA_9YqBPLD_TE=2dLaPHP6cw+v08+jt6Px_xdA4w@mail.gmail.com&gt;<br>Content-Type: text/plain; charset=UTF-8<br><br>On Tue, Sep 17, 2013 at 9:59 PM, Andrew Niemantsverdriet<br>&lt;andrew@rocky.edu&gt; wrote:<br>&gt; Right now I am just using virsh to start the machines, I have also<br>&gt; tried using Virtual Machine Manager to start them.<br><br>Try 'chmod qemu.qemu image_on_gluster.qcow2'. This along with the<br>'option rpc-auth-allow-insecure on' and 'gluster volume set &lt;volname&gt;<br>server.allow-insecure on' should make libvirt+qemu+libgfapi work.<br><br>&gt; I have enabled Gluster mounting from insecure ports, forgot to mention<br>&gt; that in my first email. It looks like the disk mounts as it starts
to<br>&gt; boot but nothing can be written to the disk as it just hangs in an<br>&gt; infinite loop.<br>&gt;<br>&gt; Thanks,<br>&gt; &nbsp;_<br>&gt; /-\ ndrew<br>&gt;<br>&gt; On Tue, Sep 17, 2013 at 1:05 AM, Samuli Heinonen &lt;samppah@neutraali.net&gt;
wrote:<br>&gt;&gt; Hello Andrew,<br>&gt;&gt;<br>&gt;&gt; How are you booting/managing VM's? Which user you use to launch
them?<br>&gt;&gt;<br>&gt;&gt; Have you enabled Gluster mounting from insecure ports? It needs
two changes.<br>&gt;&gt; You have to edit glusterd.vol (in /etc/glusterfs directory) and
add line<br>&gt;&gt; &quot;option rpc-auth-allow-insecure on&quot;. Also you have to
set volume option<br>&gt;&gt; server.allow-insecure on (ie. gluster volume set volname<br>&gt;&gt; server.allow-insecure on). Restart of glusterd and stop and start
of the<br>&gt;&gt; volume is required for these changes to take effect.<br>&gt;&gt;<br>&gt;&gt; 16.9.2013 21:38, Andrew Niemantsverdriet kirjoitti:<br>&gt;&gt;<br>&gt;&gt;&gt; Hey List,<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; I'm trying to test out using Gluster 3.4 for virtual machine
disks. My<br>&gt;&gt;&gt; enviroment consists of two Fedora 19 hosts with gluster and
qemu/kvm<br>&gt;&gt;&gt; installed.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; I have a single volume on gluster called vmdata that contains
my qcow2<br>&gt;&gt;&gt; formated image created like this:<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; qemu-img create -f qcow2 gluster://localhost/vmdata/test1.qcow
8G<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; I'm able to boot my created virtual machine but in the logs
I see this:<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; [2013-09-16 15:16:04.471205] E [addr.c:152:gf_auth] 0-auth/addr:<br>&gt;&gt;&gt; client is bound to port 46021 which is not privileged<br>&gt;&gt;&gt; [2013-09-16 15:16:04.471277] I<br>&gt;&gt;&gt; [server-handshake.c:567:server_setvolume] 0-vmdata-server:
accepted<br>&gt;&gt;&gt; client from<br>&gt;&gt;&gt; gluster1.local-1061-2013/09/16-15:16:04:441166-vmdata-client-1-0<br>&gt;&gt;&gt; (version: 3.4.0)[2013-09-16 15:16:04.488000] I<br>&gt;&gt;&gt; [server-rpc-fops.c:1572:server_open_cbk] 0-vmdata-server:
18: OPEN<br>&gt;&gt;&gt; /test1.qcow (6b63a78b-7d5c-4195-a172-5bb6ed1e7dac) ==&gt;
(Permission<br>&gt;&gt;&gt; denied)<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; I have turned off SELinux to be sure that isn't in the way.
When I<br>&gt;&gt;&gt; look at the permissions on the file using ls -l I see the
file is set<br>&gt;&gt;&gt; to 600, this doesn't seem right. I tried manually changing
the<br>&gt;&gt;&gt; permission to 755 as a test and as soon as the machine booted
it was<br>&gt;&gt;&gt; changed back to 600.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Any hints as to what is going on and how to get the disk functioning?<br>&gt;&gt;&gt; The machine will boot but as soon as anything is written to
disk it<br>&gt;&gt;&gt; will hang forever.<br>&gt;&gt;&gt;<br>&gt;&gt;&gt; Thanks,<br>&gt;&gt;&gt;<br>&gt;&gt;<br>&gt;<br>&gt;<br>&gt;<br>&gt; --<br>&gt; &nbsp;_<br>&gt; /-\ ndrew Niemantsverdriet</font></tt><br><tt><font size=2>&gt; Linux System Administrator<br>&gt; Academic Computing<br>&gt; (406) 238-7360<br>&gt; Rocky Mountain College<br>&gt; 1511 Poly Dr.<br>&gt; Billings MT, 59102<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br><br><br><br>-- <br>Asias<br><br><br>------------------------------<br><br>Message: 10<br>Date: Tue, 17 Sep 2013 23:39:38 -0400 (EDT)<br>From: Shishir Gowda &lt;sgowda@redhat.com&gt;<br>To: Nux! &lt;nux@li.nux.ro&gt;<br>Cc: Gluster Users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] gluster volume top issue<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;975294514.14460863.1379475578881.JavaMail.root@redhat.com&gt;<br>Content-Type: text/plain; charset=utf-8<br><br>Hi Nux,<br><br>I am trying to see if the issue of &quot;0&quot; open fd is based on the
work-load, or a bug.<br><br>Could you check top command output of &quot;read/write&quot; operation
too?<br><br>With regards,<br>Shishir<br><br>----- Original Message -----<br>From: &quot;Nux!&quot; &lt;nux@li.nux.ro&gt;<br>To: &quot;Shishir Gowda&quot; &lt;sgowda@redhat.com&gt;<br>Cc: &quot;Gluster Users&quot; &lt;gluster-users@gluster.org&gt;<br>Sent: Tuesday, September 17, 2013 6:46:05 PM<br>Subject: Re: [Gluster-users] gluster volume top issue<br><br>On 17.09.2013 13:13, Shishir Gowda wrote:<br>&gt; Hi Nux,<br>&gt; <br>&gt; Is only open count being shown as &quot;0&quot;, or all stats being
shown as <br>&gt; &quot;0&quot;?<br><br>Hi Shishir,<br><br>For all bricks I get:<br>Current open fds: 0, Max open fds: 0, Max openfd time: N/A<br><br>Lucian<br><br>-- <br>Sent from the Delta quadrant using Borg technology!<br><br>Nux!<br></font></tt><a href=www.nux.ro><tt><font size=2>www.nux.ro</font></tt></a><tt><font size=2><br><br><br>------------------------------<br><br>Message: 11<br>Date: Wed, 18 Sep 2013 12:02:11 +0800<br>From: kane &lt;stef_9k@163.com&gt;<br>To: Vijay Bellur &lt;vbellur@redhat.com&gt;, Anand Avati &lt;avati@redhat.com&gt;<br>Cc: gluster-users@gluster.org<br>Subject: Re: [Gluster-users] Gluster samba vfs read performance slow<br>Message-ID: &lt;5F332BE6-BBC4-40CD-88E9-5291F15A39A8@163.com&gt;<br>Content-Type: text/plain; charset=GB2312<br><br>Hi Vijay<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
I used the code in </font></tt><a href=https://github.com/gluster/glusterfs.git><tt><font size=2>https://github.com/gluster/glusterfs.git</font></tt></a><tt><font size=2>with the lasted commit: &nbsp;<br>commit de2a8d303311bd600cb93a775bc79a0edea1ee1a<br>Author: Anand Avati &lt;avati@redhat.com&gt;<br>Date: &nbsp; Tue Sep 17 16:45:03 2013 -0700<br><br> &nbsp; &nbsp;Revert &quot;cluster/distribute: Rebalance should also verify
free inodes&quot;<br> &nbsp; &nbsp;<br> &nbsp; &nbsp;This reverts commit 215fea41a96479312a5ab8783c13b30ab9fe00fa<br> &nbsp; &nbsp;<br> &nbsp; &nbsp;Realized soon after merging, ?.<br><br>which include the patch you mentioned last time improve read perf, written
by Anand.<br><br>but the read perf was still slow:<br>write: 500MB/s<br>read: 77MB/s<br><br>while via fuse :<br>write 800MB/s<br>read 600MB/s<br><br>any advises?<br><br><br>Thank you.<br>-Kane<br><br>? 2013-9-13???10:37?kane &lt;stef_9k@163.com&gt; ???<br><br>&gt; Hi Vijay?<br>&gt; <br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;thank
you for post this message, i will try it soon<br>&gt; <br>&gt; -kane<br>&gt; <br>&gt; <br>&gt; <br>&gt; ? 2013-9-13???9:21?Vijay Bellur &lt;vbellur@redhat.com&gt; ???<br>&gt; <br>&gt;&gt; On 09/13/2013 06:10 PM, kane wrote:<br>&gt;&gt;&gt; Hi<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; We use gluster samba vfs test io,but the read performance
via vfs is<br>&gt;&gt;&gt; half of write perfomance,<br>&gt;&gt;&gt; but via fuse the read and write performance is almost the
same.<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; this is our smb.conf:<br>&gt;&gt;&gt; [global]<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;workgroup = MYGROUP<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;server string = DCS Samba Server<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;log file = /var/log/samba/log.vfs<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max log size = 500000<br>&gt;&gt;&gt; # &nbsp; &nbsp; &nbsp; use sendfile = true<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio read size = 262144<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write size = 262144<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write behind = true<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;min receivefile size = 262144<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write cache size = 268435456<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;security = user<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;passdb backend = tdbsam<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;load printers = yes<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;cups options = raw<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;read raw = yes<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write raw = yes<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max xmit = 262144<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;socket options = TCP_NODELAY IPTOS_LOWDELAY
SO_RCVBUF=262144<br>&gt;&gt;&gt; SO_SNDBUF=262144<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;kernel oplocks = no<br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;stat cache = no<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; any advises helpful?<br>&gt;&gt;&gt; <br>&gt;&gt; <br>&gt;&gt; This patch has shown improvement in read performance with libgfapi:<br>&gt;&gt; <br>&gt;&gt; </font></tt><a href=http://review.gluster.org/#/c/5897/><tt><font size=2>http://review.gluster.org/#/c/5897/</font></tt></a><tt><font size=2><br>&gt;&gt; <br>&gt;&gt; Would it be possible for you to try this patch and check if it
improves performance in your case?<br>&gt;&gt; <br>&gt;&gt; -Vijay<br>&gt;&gt; <br>&gt; <br><br><br><br><br>------------------------------<br><br>Message: 12<br>Date: Tue, 17 Sep 2013 22:19:23 -0700<br>From: Anand Avati &lt;avati@gluster.org&gt;<br>To: kane &lt;stef_9k@163.com&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;, Anand Avati<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;avati@redhat.com&gt;<br>Subject: Re: [Gluster-users] Gluster samba vfs read performance slow<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;CAFboF2xxQ8rYqdDSBZtLVbae2OJ1yDZRMT4=AiWD_+2stkiRKA@mail.gmail.com&gt;<br>Content-Type: text/plain; charset=&quot;iso-2022-jp&quot;<br><br>How are you testing this? What tool are you using?<br><br>Avati<br><br><br>On Tue, Sep 17, 2013 at 9:02 PM, kane &lt;stef_9k@163.com&gt; wrote:<br><br>&gt; Hi Vijay<br>&gt;<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; I used the code in </font></tt><a href=https://github.com/gluster/glusterfs.git><tt><font size=2>https://github.com/gluster/glusterfs.git</font></tt></a><tt><font size=2>with<br>&gt; the lasted commit:<br>&gt; commit de2a8d303311bd600cb93a775bc79a0edea1ee1a<br>&gt; Author: Anand Avati &lt;avati@redhat.com&gt;<br>&gt; Date: &nbsp; Tue Sep 17 16:45:03 2013 -0700<br>&gt;<br>&gt; &nbsp; &nbsp; Revert &quot;cluster/distribute: Rebalance should also
verify free inodes&quot;<br>&gt;<br>&gt; &nbsp; &nbsp; This reverts commit 215fea41a96479312a5ab8783c13b30ab9fe00fa<br>&gt;<br>&gt; &nbsp; &nbsp; Realized soon after merging, ?.<br>&gt;<br>&gt; which include the patch you mentioned last time improve read perf,
written<br>&gt; by Anand.<br>&gt;<br>&gt; but the read perf was still slow:<br>&gt; write: 500MB/s<br>&gt; read: 77MB/s<br>&gt;<br>&gt; while via fuse :<br>&gt; write 800MB/s<br>&gt; read 600MB/s<br>&gt;<br>&gt; any advises?<br>&gt;<br>&gt;<br>&gt; Thank you.<br>&gt; -Kane<br>&gt;<br>&gt; ? 2013-9-13???10:37?kane &lt;stef_9k@163.com&gt; ???<br>&gt;<br>&gt; &gt; Hi Vijay?<br>&gt; &gt;<br>&gt; &gt; &nbsp; &nbsp; &nbsp; thank you for post this message, i will
try it soon<br>&gt; &gt;<br>&gt; &gt; -kane<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt; ? 2013-9-13???9:21?Vijay Bellur &lt;vbellur@redhat.com&gt; ???<br>&gt; &gt;<br>&gt; &gt;&gt; On 09/13/2013 06:10 PM, kane wrote:<br>&gt; &gt;&gt;&gt; Hi<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; We use gluster samba vfs test io,but the read performance
via vfs is<br>&gt; &gt;&gt;&gt; half of write perfomance,<br>&gt; &gt;&gt;&gt; but via fuse the read and write performance is almost
the same.<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; this is our smb.conf:<br>&gt; &gt;&gt;&gt; [global]<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;workgroup = MYGROUP<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;server string = DCS Samba
Server<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;log file = /var/log/samba/log.vfs<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max log size = 500000<br>&gt; &gt;&gt;&gt; # &nbsp; &nbsp; &nbsp; use sendfile = true<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio read size = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write size = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write behind = true<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;min receivefile size = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write cache size = 268435456<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;security = user<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;passdb backend = tdbsam<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;load printers = yes<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;cups options = raw<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;read raw = yes<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write raw = yes<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max xmit = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;socket options = TCP_NODELAY
IPTOS_LOWDELAY SO_RCVBUF=262144<br>&gt; &gt;&gt;&gt; SO_SNDBUF=262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;kernel oplocks = no<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;stat cache = no<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; any advises helpful?<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; This patch has shown improvement in read performance with
libgfapi:<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; </font></tt><a href=http://review.gluster.org/#/c/5897/><tt><font size=2>http://review.gluster.org/#/c/5897/</font></tt></a><tt><font size=2><br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Would it be possible for you to try this patch and check
if it improves<br>&gt; performance in your case?<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; -Vijay<br>&gt; &gt;&gt;<br>&gt; &gt;<br>&gt;<br>&gt;<br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt;<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/98115dbd/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/98115dbd/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 13<br>Date: Wed, 18 Sep 2013 13:34:48 +0800<br>From: kane &lt;stef_9k@163.com&gt;<br>To: Anand Avati &lt;avati@gluster.org&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;, Anand Avati<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;avati@redhat.com&gt;<br>Subject: Re: [Gluster-users] Gluster samba vfs read performance slow<br>Message-ID: &lt;D7FF253D-7D90-417A-9D26-543F93F2250D@163.com&gt;<br>Content-Type: text/plain; charset=&quot;iso-2022-jp&quot;<br><br>Hi Anand,<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
I use 2 gluster server , this is my volume info:<br>Volume Name: soul<br>Type: Distribute<br>Volume ID: 58f049d0-a38a-4ebe-94c0-086d492bdfa6<br>Status: Started<br>Number of Bricks: 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: 192.168.101.133:/dcsdata/d0<br>Brick2: 192.168.101.134:/dcsdata/d0<br><br>each brick use a raid 5 logic disk with 8*2TSATA hdd.<br><br>smb.conf:<br>[gvol]<br> &nbsp; &nbsp; &nbsp; &nbsp;comment = For samba export of volume &nbsp;test<br> &nbsp; &nbsp; &nbsp; &nbsp;vfs objects = glusterfs<br> &nbsp; &nbsp; &nbsp; &nbsp;glusterfs:volfile_server = localhost<br> &nbsp; &nbsp; &nbsp; &nbsp;glusterfs:volume = soul<br> &nbsp; &nbsp; &nbsp; &nbsp;path = /<br> &nbsp; &nbsp; &nbsp; &nbsp;read only = no<br> &nbsp; &nbsp; &nbsp; &nbsp;guest ok = yes<br><br>this my testparm result:<br>[global]<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
workgroup = MYGROUP<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
server string = DCS Samba Server<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
log file = /var/log/samba/log.vfs<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
max log size = 500000<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
max xmit = 262144<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
socket options = TCP_NODELAY IPTOS_LOWDELAY SO_RCVBUF=262144 SO_SNDBUF=262144<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
stat cache = No<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
kernel oplocks = No<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
idmap config * : backend = tdb<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
aio read size = 262144<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
aio write size = 262144<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
aio write behind = true<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
cups options = raw<br><br>in client mount the smb share with cifs to dir /mnt/vfs, <br>then use iozone executed in the cifs mount dir &quot;/mnt/vfs&quot;:<br>$ ./iozone -s 10G -r 128k -i0 -i1 -t 4<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
File size set to 10485760 KB<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Record Size 128 KB<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Output is in Kbytes/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Time Resolution = 0.000001 seconds.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Processor cache size set to 1024 Kbytes.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Processor cache line size set to 32 bytes.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
File stride size set to 17 * record size.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Throughput test with 4 processes<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Each process writes a 10485760 Kbyte file in 128 Kbyte records<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Children see throughput for &nbsp;4 initial writers &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;534315.84
KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Parent sees throughput for &nbsp;4 initial writers &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;519428.83
KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;133154.69 KB/sec <br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Max throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;134341.05 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Avg throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;133578.96 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min xfer &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp;= 10391296.00 KB<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Children see throughput for &nbsp;4 rewriters &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;536634.88 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Parent sees throughput for &nbsp;4 rewriters &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;522618.54 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;133408.80 KB/sec <br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Max throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;134721.36 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Avg throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;134158.72 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min xfer &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp;= 10384384.00 KB<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Children see throughput for &nbsp;4 readers &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp; 77403.54 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Parent sees throughput for &nbsp;4 readers &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp; 77402.86 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 19349.42 KB/sec <br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Max throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 19353.42 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Avg throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 19350.88 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min xfer &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp;= 10483712.00 KB<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Children see throughput for 4 re-readers &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 77424.40 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Parent sees throughput for 4 re-readers &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 77423.89 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 19354.75 KB/sec <br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Max throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 19358.50 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Avg throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp; 19356.10 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min xfer &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp;= 10483840.00 KB<br><br>then the use the same command test in the dir mounted with glister fuse:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
File size set to 10485760 KB<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Record Size 128 KB<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Output is in Kbytes/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Time Resolution = 0.000001 seconds.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Processor cache size set to 1024 Kbytes.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Processor cache line size set to 32 bytes.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
File stride size set to 17 * record size.<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Throughput test with 4 processes<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Each process writes a 10485760 Kbyte file in 128 Kbyte records<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Children see throughput for &nbsp;4 initial writers &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;887534.72
KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Parent sees throughput for &nbsp;4 initial writers &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;848830.39
KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;220140.91 KB/sec <br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Max throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;223690.45 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Avg throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;221883.68 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min xfer &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp;= 10319360.00 KB<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Children see throughput for &nbsp;4 rewriters &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;892774.92 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Parent sees throughput for &nbsp;4 rewriters &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;871186.83 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;222326.44 KB/sec <br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Max throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;223970.17 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Avg throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;223193.73 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min xfer &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp;= 10431360.00 KB<br><br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Children see throughput for &nbsp;4 readers &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;605889.12 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Parent sees throughput for &nbsp;4 readers &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; = &nbsp;601767.96 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;143133.14 KB/sec <br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Max throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;159550.88 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Avg throughput per process &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp;= &nbsp;151472.28 KB/sec<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Min xfer &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp;= 9406848.00 KB<br><br>it shows much higher perf.<br><br>any places i did wrong?<br><br><br>thank you<br>-Kane<br><br>? 2013-9-18???1:19?Anand Avati &lt;avati@gluster.org&gt; ???<br><br>&gt; How are you testing this? What tool are you using?<br>&gt; <br>&gt; Avati<br>&gt; <br>&gt; <br>&gt; On Tue, Sep 17, 2013 at 9:02 PM, kane &lt;stef_9k@163.com&gt; wrote:<br>&gt; Hi Vijay<br>&gt; <br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; I used the code in </font></tt><a href=https://github.com/gluster/glusterfs.git><tt><font size=2>https://github.com/gluster/glusterfs.git</font></tt></a><tt><font size=2>with the lasted commit:<br>&gt; commit de2a8d303311bd600cb93a775bc79a0edea1ee1a<br>&gt; Author: Anand Avati &lt;avati@redhat.com&gt;<br>&gt; Date: &nbsp; Tue Sep 17 16:45:03 2013 -0700<br>&gt; <br>&gt; &nbsp; &nbsp; Revert &quot;cluster/distribute: Rebalance should also
verify free inodes&quot;<br>&gt; <br>&gt; &nbsp; &nbsp; This reverts commit 215fea41a96479312a5ab8783c13b30ab9fe00fa<br>&gt; <br>&gt; &nbsp; &nbsp; Realized soon after merging, ?.<br>&gt; <br>&gt; which include the patch you mentioned last time improve read perf,
written by Anand.<br>&gt; <br>&gt; but the read perf was still slow:<br>&gt; write: 500MB/s<br>&gt; read: 77MB/s<br>&gt; <br>&gt; while via fuse :<br>&gt; write 800MB/s<br>&gt; read 600MB/s<br>&gt; <br>&gt; any advises?<br>&gt; <br>&gt; <br>&gt; Thank you.<br>&gt; -Kane<br>&gt; <br>&gt; ? 2013-9-13???10:37?kane &lt;stef_9k@163.com&gt; ???<br>&gt; <br>&gt; &gt; Hi Vijay?<br>&gt; &gt;<br>&gt; &gt; &nbsp; &nbsp; &nbsp; thank you for post this message, i will
try it soon<br>&gt; &gt;<br>&gt; &gt; -kane<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt;<br>&gt; &gt; ? 2013-9-13???9:21?Vijay Bellur &lt;vbellur@redhat.com&gt; ???<br>&gt; &gt;<br>&gt; &gt;&gt; On 09/13/2013 06:10 PM, kane wrote:<br>&gt; &gt;&gt;&gt; Hi<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; We use gluster samba vfs test io,but the read performance
via vfs is<br>&gt; &gt;&gt;&gt; half of write perfomance,<br>&gt; &gt;&gt;&gt; but via fuse the read and write performance is almost
the same.<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; this is our smb.conf:<br>&gt; &gt;&gt;&gt; [global]<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;workgroup = MYGROUP<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;server string = DCS Samba
Server<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;log file = /var/log/samba/log.vfs<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max log size = 500000<br>&gt; &gt;&gt;&gt; # &nbsp; &nbsp; &nbsp; use sendfile = true<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio read size = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write size = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write behind = true<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;min receivefile size = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write cache size = 268435456<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;security = user<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;passdb backend = tdbsam<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;load printers = yes<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;cups options = raw<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;read raw = yes<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write raw = yes<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max xmit = 262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;socket options = TCP_NODELAY
IPTOS_LOWDELAY SO_RCVBUF=262144<br>&gt; &gt;&gt;&gt; SO_SNDBUF=262144<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;kernel oplocks = no<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;stat cache = no<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; any advises helpful?<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; This patch has shown improvement in read performance with
libgfapi:<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; </font></tt><a href=http://review.gluster.org/#/c/5897/><tt><font size=2>http://review.gluster.org/#/c/5897/</font></tt></a><tt><font size=2><br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Would it be possible for you to try this patch and check
if it improves performance in your case?<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; -Vijay<br>&gt; &gt;&gt;<br>&gt; &gt;<br>&gt; <br>&gt; <br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt; <br><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/fabbf07e/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/fabbf07e/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 14<br>Date: Wed, 18 Sep 2013 05:35:32 +0000<br>From: Bobby Jacob &lt;bobby.jacob@alshaya.com&gt;<br>To: &quot;gluster-users@gluster.org&quot; &lt;gluster-users@gluster.org&gt;<br>Subject: [Gluster-users] Mounting same replica-volume on multiple<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
clients. &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
????<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;AC3305F9C186F849B835A3E6D3C9BEFEAFA70E@KWTPRMBX001.mha.local&gt;<br>Content-Type: text/plain; charset=&quot;us-ascii&quot;<br><br>HI,<br><br>I have 2 gluster nodes (GFS01/GFS02) each with a single brick (B01/B01).
I have created a simple replica volume with these bricks.<br>Bricks &nbsp; &nbsp;: GFS01/B01 and GFS02/B01.<br>Volume: TestVol<br><br>I have 2 clients (C01/C02) which will mount this &quot;testvol&quot; for
simultaneous read/write. The 2 clients run the same application which is
load-balanced, so user request are end to both the client servers which
reads/writes data to both the same volume.<br><br>Mounting the volume on C1 &nbsp; &nbsp; &nbsp; : &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; mount -t glusterfs -o backupvolfile-server=GFS02 GFS01:/testvol
/data<br>Mounting the volume on C2 &nbsp; &nbsp; &nbsp; : &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; mount -t glusterfs -o backupvolfile-server=GFS01 GFS02:/testvol
/data<br><br>Is this the appropriate way to be followed.?<br><br>At times, I notice that when I write data through C1-mount point the data
is written only to GFS01/B01 and if data is written through C2-mount point
the data is written only to GFS02/B01.<br><br>Please advise. !!<br><br><br>Thanks &amp; Regards,<br>Bobby Jacob<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/e3b53134/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/e3b53134/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 15<br>Date: Tue, 17 Sep 2013 22:38:14 -0700<br>From: Anand Avati &lt;avati@redhat.com&gt;<br>To: kane &lt;stef_9k@163.com&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] Gluster samba vfs read performance slow<br>Message-ID: &lt;52393C46.80503@redhat.com&gt;<br>Content-Type: text/plain; charset=ISO-2022-JP<br><br>On 9/17/13 10:34 PM, kane wrote:<br>&gt; Hi Anand,<br>&gt; <br>&gt; I use 2 gluster server , this is my volume info:<br>&gt; Volume Name: soul<br>&gt; Type: Distribute<br>&gt; Volume ID: 58f049d0-a38a-4ebe-94c0-086d492bdfa6<br>&gt; Status: Started<br>&gt; Number of Bricks: 2<br>&gt; Transport-type: tcp<br>&gt; Bricks:<br>&gt; Brick1: 192.168.101.133:/dcsdata/d0<br>&gt; Brick2: 192.168.101.134:/dcsdata/d0<br>&gt; <br>&gt; each brick use a raid 5 logic disk with 8*2TSATA hdd.<br>&gt; <br>&gt; smb.conf:<br>&gt; [gvol]<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;comment = For samba export of volume
&nbsp;test<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;vfs objects = glusterfs<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;glusterfs:volfile_server = localhost<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;glusterfs:volume = soul<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;path = /<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;read only = no<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;guest ok = yes<br>&gt; <br>&gt; this my testparm result:<br>&gt; [global]<br>&gt; workgroup = MYGROUP<br>&gt; server string = DCS Samba Server<br>&gt; log file = /var/log/samba/log.vfs</font></tt><br><tt><font size=2>&gt; max log size = 500000<br>&gt; max xmit = 262144<br>&gt; socket options = TCP_NODELAY IPTOS_LOWDELAY SO_RCVBUF=262144 <br>&gt; SO_SNDBUF=262144<br>&gt; stat cache = No<br>&gt; kernel oplocks = No<br>&gt; idmap config * : backend = tdb<br>&gt; aio read size = 262144<br>&gt; aio write size = 262144<br>&gt; aio write behind = true<br>&gt; cups options = raw<br>&gt; <br>&gt; in client mount the smb share with cifs to dir /mnt/vfs,<br>&gt; then use iozone executed in the cifs mount dir &quot;/mnt/vfs&quot;:<br>&gt; $ ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; File size set to 10485760 KB<br>&gt; Record Size 128 KB<br>&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; Output is in Kbytes/sec<br>&gt; Time Resolution = 0.000001 seconds.<br>&gt; Processor cache size set to 1024 Kbytes.<br>&gt; Processor cache line size set to 32 bytes.<br>&gt; File stride size set to 17 * record size.<br>&gt; Throughput test with 4 processes<br>&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt; <br>&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;534315.84
KB/sec<br>&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;519428.83
KB/sec<br>&gt; Min throughput per process = &nbsp;133154.69 KB/sec<br>&gt; Max throughput per process = &nbsp;134341.05 KB/sec<br>&gt; Avg throughput per process = &nbsp;133578.96 KB/sec<br>&gt; Min xfer = 10391296.00 KB<br>&gt; <br>&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;536634.88 KB/sec<br>&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;522618.54 KB/sec<br>&gt; Min throughput per process = &nbsp;133408.80 KB/sec<br>&gt; Max throughput per process = &nbsp;134721.36 KB/sec<br>&gt; Avg throughput per process = &nbsp;134158.72 KB/sec<br>&gt; Min xfer = 10384384.00 KB<br>&gt; <br>&gt; Children see throughput for &nbsp;4 readers = &nbsp; 77403.54 KB/sec<br>&gt; Parent sees throughput for &nbsp;4 readers = &nbsp; 77402.86 KB/sec<br>&gt; Min throughput per process = &nbsp; 19349.42 KB/sec<br>&gt; Max throughput per process = &nbsp; 19353.42 KB/sec<br>&gt; Avg throughput per process = &nbsp; 19350.88 KB/sec<br>&gt; Min xfer = 10483712.00 KB<br>&gt; <br>&gt; Children see throughput for 4 re-readers = &nbsp; 77424.40 KB/sec<br>&gt; Parent sees throughput for 4 re-readers = &nbsp; 77423.89 KB/sec<br>&gt; Min throughput per process = &nbsp; 19354.75 KB/sec<br>&gt; Max throughput per process = &nbsp; 19358.50 KB/sec<br>&gt; Avg throughput per process = &nbsp; 19356.10 KB/sec<br>&gt; Min xfer = 10483840.00 KB<br>&gt; <br>&gt; then the use the same command test in the dir mounted with glister
fuse:<br>&gt; File size set to 10485760 KB<br>&gt; Record Size 128 KB<br>&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; Output is in Kbytes/sec<br>&gt; Time Resolution = 0.000001 seconds.<br>&gt; Processor cache size set to 1024 Kbytes.<br>&gt; Processor cache line size set to 32 bytes.<br>&gt; File stride size set to 17 * record size.<br>&gt; Throughput test with 4 processes<br>&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt; <br>&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;887534.72
KB/sec<br>&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;848830.39
KB/sec<br>&gt; Min throughput per process = &nbsp;220140.91 KB/sec<br>&gt; Max throughput per process = &nbsp;223690.45 KB/sec<br>&gt; Avg throughput per process = &nbsp;221883.68 KB/sec<br>&gt; Min xfer = 10319360.00 KB<br>&gt; <br>&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;892774.92 KB/sec<br>&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;871186.83 KB/sec<br>&gt; Min throughput per process = &nbsp;222326.44 KB/sec<br>&gt; Max throughput per process = &nbsp;223970.17 KB/sec<br>&gt; Avg throughput per process = &nbsp;223193.73 KB/sec<br>&gt; Min xfer = 10431360.00 KB<br>&gt; <br>&gt; Children see throughput for &nbsp;4 readers = &nbsp;605889.12 KB/sec<br>&gt; Parent sees throughput for &nbsp;4 readers = &nbsp;601767.96 KB/sec<br>&gt; Min throughput per process = &nbsp;143133.14 KB/sec<br>&gt; Max throughput per process = &nbsp;159550.88 KB/sec<br>&gt; Avg throughput per process = &nbsp;151472.28 KB/sec<br>&gt; Min xfer = 9406848.00 KB<br>&gt; <br>&gt; it shows much higher perf.<br>&gt; <br>&gt; any places i did wrong?<br>&gt; <br>&gt; <br>&gt; thank you<br>&gt; -Kane<br>&gt; <br>&gt; ? 2013-9-18???1:19?Anand Avati &lt;avati@gluster.org <br>&gt; &lt;</font></tt><a href=mailto:avati@gluster.org><tt><font size=2>mailto:avati@gluster.org</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt; <br>&gt;&gt; How are you testing this? What tool are you using?<br>&gt;&gt;<br>&gt;&gt; Avati<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; On Tue, Sep 17, 2013 at 9:02 PM, kane &lt;stef_9k@163.com <br>&gt;&gt; &lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
wrote:<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; Hi Vijay<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; I used the code in<br>&gt;&gt; &nbsp; &nbsp; </font></tt><a href=https://github.com/gluster/glusterfs.git><tt><font size=2>https://github.com/gluster/glusterfs.git</font></tt></a><tt><font size=2>with the lasted commit:<br>&gt;&gt; &nbsp; &nbsp; commit de2a8d303311bd600cb93a775bc79a0edea1ee1a<br>&gt;&gt; &nbsp; &nbsp; Author: Anand Avati &lt;avati@redhat.com &lt;</font></tt><a href=mailto:avati@redhat.com><tt><font size=2>mailto:avati@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; Date: &nbsp; Tue Sep 17 16:45:03 2013 -0700<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; Revert &quot;cluster/distribute: Rebalance
should also verify free<br>&gt;&gt; &nbsp; &nbsp; inodes&quot;<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; This reverts commit 215fea41a96479312a5ab8783c13b30ab9fe00fa<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; Realized soon after merging, ?.<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; which include the patch you mentioned last time
improve read perf,<br>&gt;&gt; &nbsp; &nbsp; written by Anand.<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; but the read perf was still slow:<br>&gt;&gt; &nbsp; &nbsp; write: 500MB/s<br>&gt;&gt; &nbsp; &nbsp; read: 77MB/s<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; while via fuse :<br>&gt;&gt; &nbsp; &nbsp; write 800MB/s<br>&gt;&gt; &nbsp; &nbsp; read 600MB/s<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; any advises?<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; Thank you.<br>&gt;&gt; &nbsp; &nbsp; -Kane<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; ? 2013-9-13???10:37?kane &lt;stef_9k@163.com<br>&gt;&gt; &nbsp; &nbsp; &lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt; Hi Vijay?<br>&gt;&gt; &nbsp; &nbsp; &gt;<br>&gt;&gt; &nbsp; &nbsp; &gt; &nbsp; &nbsp; &nbsp; thank you for post this
message, i will try it soon<br>&gt;&gt; &nbsp; &nbsp; &gt;<br>&gt;&gt; &nbsp; &nbsp; &gt; -kane<br>&gt;&gt; &nbsp; &nbsp; &gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;<br>&gt;&gt; &nbsp; &nbsp; &gt; ? 2013-9-13???9:21?Vijay Bellur &lt;vbellur@redhat.com<br>&gt;&gt; &nbsp; &nbsp; &lt;</font></tt><a href=mailto:vbellur@redhat.com><tt><font size=2>mailto:vbellur@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt;&gt; &nbsp; &nbsp; &gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt; On 09/13/2013 06:10 PM, kane wrote:<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; Hi<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; We use gluster samba vfs test io,but
the read performance via<br>&gt;&gt; &nbsp; &nbsp; vfs is<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; half of write perfomance,<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; but via fuse the read and write performance
is almost the same.<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; this is our smb.conf:<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; [global]<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;workgroup
= MYGROUP<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;server string
= DCS Samba Server<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;log file
= /var/log/samba/log.vfs<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max log
size = 500000<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; # &nbsp; &nbsp; &nbsp; use sendfile
= true<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio read
size = 262144<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write
size = 262144<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;aio write
behind = true<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;min receivefile
size = 262144<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write cache
size = 268435456<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;security
= user<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;passdb backend
= tdbsam<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;load printers
= yes<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;cups options
= raw<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;read raw
= yes<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;write raw
= yes<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;max xmit
= 262144<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;socket options
= TCP_NODELAY IPTOS_LOWDELAY<br>&gt;&gt; &nbsp; &nbsp; SO_RCVBUF=262144<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; SO_SNDBUF=262144<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;kernel oplocks
= no<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;stat cache
= no<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt; any advises helpful?<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt; This patch has shown improvement in read
performance with libgfapi:<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt; </font></tt><a href=http://review.gluster.org/#/c/5897/><tt><font size=2>http://review.gluster.org/#/c/5897/</font></tt></a><tt><font size=2><br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt; Would it be possible for you to try this
patch and check if it<br>&gt;&gt; &nbsp; &nbsp; improves performance in your case?<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt; -Vijay<br>&gt;&gt; &nbsp; &nbsp; &gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; &gt;<br>&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; &nbsp; &nbsp; _______________________________________________<br>&gt;&gt; &nbsp; &nbsp; Gluster-users mailing list<br>&gt;&gt; &nbsp; &nbsp; Gluster-users@gluster.org &lt;</font></tt><a href="mailto:Gluster-users@gluster.org"><tt><font size=2>mailto:Gluster-users@gluster.org</font></tt></a><tt><font size=2>&gt;<br>&gt;&gt; &nbsp; &nbsp; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt;&gt;<br>&gt;&gt;<br>&gt; <br><br>Please add 'kernel oplocks = no' in the [gvol] section and try again.<br><br>Avati<br><br><br><br>------------------------------<br><br>Message: 16<br>Date: Wed, 18 Sep 2013 07:45:39 +0200<br>From: Daniel M?ller &lt;mueller@tropenklinik.de&gt;<br>To: &quot;'Bobby Jacob'&quot; &lt;bobby.jacob@alshaya.com&gt;,<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] Mounting same replica-volume on multiple<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
clients. &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
????<br>Message-ID: &lt;001801ceb432$4f1b0b60$ed512220$@de&gt;<br>Content-Type: text/plain; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; charset=&quot;iso-8859-1&quot;<br><br>Hello,<br>this ist he behavior as if you write directly into the glusterd<br>directory/partition and not to the remounted replicating bricks!?<br><br><br>EDV Daniel M?ller<br><br>Leitung EDV<br>Tropenklinik Paul-Lechler-Krankenhaus<br>Paul-Lechler-Str. 24<br>72076 T?bingen <br>Tel.: 07071/206-463, Fax: 07071/206-499<br>eMail: mueller@tropenklinik.de<br>Internet: </font></tt><a href=www.tropenklinik.de><tt><font size=2>www.tropenklinik.de</font></tt></a><tt><font size=2><br><br>Von: gluster-users-bounces@gluster.org<br>[</font></tt><a href="mailto:gluster-users-bounces@gluster.org"><tt><font size=2>mailto:gluster-users-bounces@gluster.org</font></tt></a><tt><font size=2>]
Im Auftrag von Bobby Jacob<br>Gesendet: Mittwoch, 18. September 2013 07:36<br>An: gluster-users@gluster.org<br>Betreff: [Gluster-users] Mounting same replica-volume on multiple clients.<br>????<br><br>HI,<br><br>I have 2 gluster nodes (GFS01/GFS02) each with a single brick (B01/B01).
I<br>have created a simple replica volume with these bricks. <br>Bricks ?? : GFS01/B01 and GFS02/B01.<br>Volume: TestVol<br><br>I have 2 clients (C01/C02) which will mount this ?testvol? for simultaneous<br>read/write. The 2 clients run the same application which is load-balanced,<br>so user request are end to both the client servers which reads/writes data<br>to both the same volume.<br><br>Mounting the volume on C1?????? :?????????????? mount ?t glusterfs ?o<br>backupvolfile-server=GFS02 GFS01:/testvol /data<br>Mounting the volume on C2?????? :?????????????? mount ?t glusterfs ?o<br>backupvolfile-server=GFS01 GFS02:/testvol /data<br><br>Is this the appropriate way to be followed.? <br><br>At times, I notice that when I write data through C1-mount point the data
is<br>written only to GFS01/B01 and if data is written through C2-mount point
the<br>data is written only to GFS02/B01.<br><br>Please advise. !!<br><br><br>Thanks &amp; Regards,<br>Bobby Jacob<br><br><br><br>------------------------------<br><br>Message: 17<br>Date: Wed, 18 Sep 2013 13:46:09 +0800<br>From: kane &lt;stef_9k@163.com&gt;<br>To: Anand Avati &lt;avati@redhat.com&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] Gluster samba vfs read performance slow<br>Message-ID: &lt;BDD668E0-EA97-4084-ABBF-5508D3723107@163.com&gt;<br>Content-Type: text/plain; charset=iso-2022-jp<br><br>I have already used &quot;kernel oplocks = no&quot; in the smb.conf, next
is my original smb.conf file global settings:<br>[global]<br> &nbsp; &nbsp; &nbsp; &nbsp;workgroup = MYGROUP<br> &nbsp; &nbsp; &nbsp; &nbsp;server string = DCS Samba Server<br> &nbsp; &nbsp; &nbsp; &nbsp;log file = /var/log/samba/log.vfs<br> &nbsp; &nbsp; &nbsp; &nbsp;max log size = 500000<br> &nbsp; &nbsp; &nbsp; &nbsp;aio read size = 262144<br> &nbsp; &nbsp; &nbsp; &nbsp;aio write size = 262144<br> &nbsp; &nbsp; &nbsp; &nbsp;aio write behind = true<br> &nbsp; &nbsp; &nbsp; &nbsp;security = user<br> &nbsp; &nbsp; &nbsp; &nbsp;passdb backend = tdbsam<br> &nbsp; &nbsp; &nbsp; &nbsp;load printers = yes<br> &nbsp; &nbsp; &nbsp; &nbsp;cups options = raw<br> &nbsp; &nbsp; &nbsp; &nbsp;read raw = yes<br> &nbsp; &nbsp; &nbsp; &nbsp;write raw = yes<br> &nbsp; &nbsp; &nbsp; &nbsp;max xmit = 262144<br> &nbsp; &nbsp; &nbsp; &nbsp;socket options = TCP_NODELAY IPTOS_LOWDELAY
SO_RCVBUF=262144 SO_SNDBUF=262144<br># &nbsp; &nbsp; &nbsp; max protocol = SMB2<br> &nbsp; &nbsp; &nbsp; &nbsp;kernel oplocks = no<br> &nbsp; &nbsp; &nbsp; &nbsp;stat cache = no<br><br>thank you<br>-Kane<br>? 2013-9-18???1:38?Anand Avati &lt;avati@redhat.com&gt; ???<br><br>&gt; On 9/17/13 10:34 PM, kane wrote:<br>&gt;&gt; Hi Anand,<br>&gt;&gt; <br>&gt;&gt; I use 2 gluster server , this is my volume info:<br>&gt;&gt; Volume Name: soul<br>&gt;&gt; Type: Distribute<br>&gt;&gt; Volume ID: 58f049d0-a38a-4ebe-94c0-086d492bdfa6<br>&gt;&gt; Status: Started<br>&gt;&gt; Number of Bricks: 2<br>&gt;&gt; Transport-type: tcp<br>&gt;&gt; Bricks:<br>&gt;&gt; Brick1: 192.168.101.133:/dcsdata/d0<br>&gt;&gt; Brick2: 192.168.101.134:/dcsdata/d0<br>&gt;&gt; <br>&gt;&gt; each brick use a raid 5 logic disk with 8*2TSATA hdd.<br>&gt;&gt; <br>&gt;&gt; smb.conf:<br>&gt;&gt; [gvol]<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; comment = For samba export of volume
&nbsp;test<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; vfs objects = glusterfs<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; glusterfs:volfile_server = localhost<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; glusterfs:volume = soul<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; path = /<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; read only = no<br>&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; guest ok = yes<br>&gt;&gt; <br>&gt;&gt; this my testparm result:<br>&gt;&gt; [global]<br>&gt;&gt; workgroup = MYGROUP<br>&gt;&gt; server string = DCS Samba Server<br>&gt;&gt; log file = /var/log/samba/log.vfs<br>&gt;&gt; max log size = 500000<br>&gt;&gt; max xmit = 262144<br>&gt;&gt; socket options = TCP_NODELAY IPTOS_LOWDELAY SO_RCVBUF=262144 <br>&gt;&gt; SO_SNDBUF=262144<br>&gt;&gt; stat cache = No<br>&gt;&gt; kernel oplocks = No<br>&gt;&gt; idmap config * : backend = tdb<br>&gt;&gt; aio read size = 262144<br>&gt;&gt; aio write size = 262144<br>&gt;&gt; aio write behind = true<br>&gt;&gt; cups options = raw<br>&gt;&gt; <br>&gt;&gt; in client mount the smb share with cifs to dir /mnt/vfs,<br>&gt;&gt; then use iozone executed in the cifs mount dir &quot;/mnt/vfs&quot;:<br>&gt;&gt; $ ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt;&gt; File size set to 10485760 KB<br>&gt;&gt; Record Size 128 KB<br>&gt;&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt;&gt; Output is in Kbytes/sec<br>&gt;&gt; Time Resolution = 0.000001 seconds.<br>&gt;&gt; Processor cache size set to 1024 Kbytes.<br>&gt;&gt; Processor cache line size set to 32 bytes.<br>&gt;&gt; File stride size set to 17 * record size.<br>&gt;&gt; Throughput test with 4 processes<br>&gt;&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt;&gt; <br>&gt;&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;534315.84
KB/sec<br>&gt;&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;519428.83
KB/sec<br>&gt;&gt; Min throughput per process = &nbsp;133154.69 KB/sec<br>&gt;&gt; Max throughput per process = &nbsp;134341.05 KB/sec<br>&gt;&gt; Avg throughput per process = &nbsp;133578.96 KB/sec<br>&gt;&gt; Min xfer = 10391296.00 KB<br>&gt;&gt; <br>&gt;&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;536634.88
KB/sec<br>&gt;&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;522618.54
KB/sec<br>&gt;&gt; Min throughput per process = &nbsp;133408.80 KB/sec<br>&gt;&gt; Max throughput per process = &nbsp;134721.36 KB/sec<br>&gt;&gt; Avg throughput per process = &nbsp;134158.72 KB/sec<br>&gt;&gt; Min xfer = 10384384.00 KB<br>&gt;&gt; <br>&gt;&gt; Children see throughput for &nbsp;4 readers = &nbsp; 77403.54
KB/sec<br>&gt;&gt; Parent sees throughput for &nbsp;4 readers = &nbsp; 77402.86 KB/sec<br>&gt;&gt; Min throughput per process = &nbsp; 19349.42 KB/sec<br>&gt;&gt; Max throughput per process = &nbsp; 19353.42 KB/sec<br>&gt;&gt; Avg throughput per process = &nbsp; 19350.88 KB/sec<br>&gt;&gt; Min xfer = 10483712.00 KB<br>&gt;&gt; <br>&gt;&gt; Children see throughput for 4 re-readers = &nbsp; 77424.40 KB/sec<br>&gt;&gt; Parent sees throughput for 4 re-readers = &nbsp; 77423.89 KB/sec<br>&gt;&gt; Min throughput per process = &nbsp; 19354.75 KB/sec<br>&gt;&gt; Max throughput per process = &nbsp; 19358.50 KB/sec<br>&gt;&gt; Avg throughput per process = &nbsp; 19356.10 KB/sec<br>&gt;&gt; Min xfer = 10483840.00 KB<br>&gt;&gt; <br>&gt;&gt; then the use the same command test in the dir mounted with glister
fuse:<br>&gt;&gt; File size set to 10485760 KB<br>&gt;&gt; Record Size 128 KB<br>&gt;&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt;&gt; Output is in Kbytes/sec<br>&gt;&gt; Time Resolution = 0.000001 seconds.<br>&gt;&gt; Processor cache size set to 1024 Kbytes.<br>&gt;&gt; Processor cache line size set to 32 bytes.<br>&gt;&gt; File stride size set to 17 * record size.<br>&gt;&gt; Throughput test with 4 processes<br>&gt;&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt;&gt; <br>&gt;&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;887534.72
KB/sec<br>&gt;&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;848830.39
KB/sec<br>&gt;&gt; Min throughput per process = &nbsp;220140.91 KB/sec<br>&gt;&gt; Max throughput per process = &nbsp;223690.45 KB/sec<br>&gt;&gt; Avg throughput per process = &nbsp;221883.68 KB/sec<br>&gt;&gt; Min xfer = 10319360.00 KB<br>&gt;&gt; <br>&gt;&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;892774.92
KB/sec<br>&gt;&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;871186.83
KB/sec<br>&gt;&gt; Min throughput per process = &nbsp;222326.44 KB/sec<br>&gt;&gt; Max throughput per process = &nbsp;223970.17 KB/sec<br>&gt;&gt; Avg throughput per process = &nbsp;223193.73 KB/sec<br>&gt;&gt; Min xfer = 10431360.00 KB<br>&gt;&gt; <br>&gt;&gt; Children see throughput for &nbsp;4 readers = &nbsp;605889.12
KB/sec<br>&gt;&gt; Parent sees throughput for &nbsp;4 readers = &nbsp;601767.96 KB/sec<br>&gt;&gt; Min throughput per process = &nbsp;143133.14 KB/sec<br>&gt;&gt; Max throughput per process = &nbsp;159550.88 KB/sec<br>&gt;&gt; Avg throughput per process = &nbsp;151472.28 KB/sec<br>&gt;&gt; Min xfer = 9406848.00 KB<br>&gt;&gt; <br>&gt;&gt; it shows much higher perf.<br>&gt;&gt; <br>&gt;&gt; any places i did wrong?<br>&gt;&gt; <br>&gt;&gt; <br>&gt;&gt; thank you<br>&gt;&gt; -Kane<br>&gt;&gt; <br>&gt;&gt; ? 2013-9-18???1:19?Anand Avati &lt;avati@gluster.org <br>&gt;&gt; &lt;</font></tt><a href=mailto:avati@gluster.org><tt><font size=2>mailto:avati@gluster.org</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt;&gt; <br>&gt;&gt;&gt; How are you testing this? What tool are you using?<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; Avati<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; <br>&gt;&gt;&gt; On Tue, Sep 17, 2013 at 9:02 PM, kane &lt;stef_9k@163.com
<br>&gt;&gt;&gt; &lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
wrote:<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;Hi Vijay<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;I used the code in<br>&gt;&gt;&gt; &nbsp; &nbsp;</font></tt><a href=https://github.com/gluster/glusterfs.git><tt><font size=2>https://github.com/gluster/glusterfs.git</font></tt></a><tt><font size=2>with the lasted commit:<br>&gt;&gt;&gt; &nbsp; &nbsp;commit de2a8d303311bd600cb93a775bc79a0edea1ee1a<br>&gt;&gt;&gt; &nbsp; &nbsp;Author: Anand Avati &lt;avati@redhat.com &lt;</font></tt><a href=mailto:avati@redhat.com><tt><font size=2>mailto:avati@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;<br>&gt;&gt;&gt; &nbsp; &nbsp;Date: &nbsp; Tue Sep 17 16:45:03 2013 -0700<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;Revert &quot;cluster/distribute:
Rebalance should also verify free<br>&gt;&gt;&gt; &nbsp; &nbsp;inodes&quot;<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;This reverts commit 215fea41a96479312a5ab8783c13b30ab9fe00fa<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;Realized soon after merging, ?.<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;which include the patch you mentioned last time
improve read perf,<br>&gt;&gt;&gt; &nbsp; &nbsp;written by Anand.<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;but the read perf was still slow:<br>&gt;&gt;&gt; &nbsp; &nbsp;write: 500MB/s<br>&gt;&gt;&gt; &nbsp; &nbsp;read: 77MB/s<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;while via fuse :<br>&gt;&gt;&gt; &nbsp; &nbsp;write 800MB/s<br>&gt;&gt;&gt; &nbsp; &nbsp;read 600MB/s<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;any advises?<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;Thank you.<br>&gt;&gt;&gt; &nbsp; &nbsp;-Kane<br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;? 2013-9-13???10:37?kane &lt;stef_9k@163.com<br>&gt;&gt;&gt; &nbsp; &nbsp;&lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt; Hi Vijay?<br>&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp;thank you for post this message, i
will try it soon<br>&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt; -kane<br>&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt; ? 2013-9-13???9:21?Vijay Bellur &lt;vbellur@redhat.com<br>&gt;&gt;&gt; &nbsp; &nbsp;&lt;</font></tt><a href=mailto:vbellur@redhat.com><tt><font size=2>mailto:vbellur@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt; On 09/13/2013 06:10 PM, kane wrote:<br>&gt;&gt;&gt;&gt;&gt;&gt; Hi<br>&gt;&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt;&gt; We use gluster samba vfs test io,but the read
performance via<br>&gt;&gt;&gt; &nbsp; &nbsp;vfs is<br>&gt;&gt;&gt;&gt;&gt;&gt; half of write perfomance,<br>&gt;&gt;&gt;&gt;&gt;&gt; but via fuse the read and write performance is
almost the same.<br>&gt;&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt;&gt; this is our smb.conf:<br>&gt;&gt;&gt;&gt;&gt;&gt; [global]<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; workgroup = MYGROUP<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; server string = DCS Samba
Server<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; log file = /var/log/samba/log.vfs<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; max log size = 500000<br>&gt;&gt;&gt;&gt;&gt;&gt; # &nbsp; &nbsp; &nbsp; use sendfile = true<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio read size = 262144<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio write size = 262144<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio write behind = true<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; min receivefile size = 262144<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; write cache size = 268435456<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; security = user<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; passdb backend = tdbsam<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; load printers = yes<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; cups options = raw<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; read raw = yes<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; write raw = yes<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; max xmit = 262144<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; socket options = TCP_NODELAY
IPTOS_LOWDELAY<br>&gt;&gt;&gt; &nbsp; &nbsp;SO_RCVBUF=262144<br>&gt;&gt;&gt;&gt;&gt;&gt; SO_SNDBUF=262144<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; kernel oplocks = no<br>&gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; stat cache = no<br>&gt;&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt;&gt; any advises helpful?<br>&gt;&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt; This patch has shown improvement in read performance
with libgfapi:<br>&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt; </font></tt><a href=http://review.gluster.org/#/c/5897/><tt><font size=2>http://review.gluster.org/#/c/5897/</font></tt></a><tt><font size=2><br>&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt; Would it be possible for you to try this patch and
check if it<br>&gt;&gt;&gt; &nbsp; &nbsp;improves performance in your case?<br>&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt;&gt; -Vijay<br>&gt;&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt;&gt; <br>&gt;&gt;&gt; <br>&gt;&gt;&gt; <br>&gt;&gt;&gt; &nbsp; &nbsp;_______________________________________________<br>&gt;&gt;&gt; &nbsp; &nbsp;Gluster-users mailing list<br>&gt;&gt;&gt; &nbsp; &nbsp;Gluster-users@gluster.org &lt;</font></tt><a href="mailto:Gluster-users@gluster.org"><tt><font size=2>mailto:Gluster-users@gluster.org</font></tt></a><tt><font size=2>&gt;<br>&gt;&gt;&gt; &nbsp; &nbsp;</font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt;&gt;&gt; <br>&gt;&gt;&gt; <br>&gt;&gt; <br>&gt; <br>&gt; Please add 'kernel oplocks = no' in the [gvol] section and try again.<br>&gt; <br>&gt; Avati<br>&gt; <br><br><br><br><br>------------------------------<br><br>Message: 18<br>Date: Wed, 18 Sep 2013 05:48:29 +0000<br>From: Bobby Jacob &lt;bobby.jacob@alshaya.com&gt;<br>To: &quot;mueller@tropenklinik.de&quot; &lt;mueller@tropenklinik.de&gt;,<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&quot;gluster-users@gluster.org&quot; &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] Mounting same replica-volume on multiple<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
clients. &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
????<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;AC3305F9C186F849B835A3E6D3C9BEFEAFA748@KWTPRMBX001.mha.local&gt;<br>Content-Type: text/plain; charset=&quot;iso-8859-1&quot;<br><br>Exactly. !! BUT I am writing through the volume mount-point from the clients.
!! NOT directly into the bricks. !!<br><br>I'm using GlusterFS 3.3.2 with Centos6.4 . !<br><br>Thanks &amp; Regards,<br>Bobby Jacob<br><br>-----Original Message-----<br>From: Daniel M?ller [</font></tt><a href=mailto:mueller@tropenklinik.de><tt><font size=2>mailto:mueller@tropenklinik.de</font></tt></a><tt><font size=2>]
<br>Sent: Wednesday, September 18, 2013 8:46 AM<br>To: Bobby Jacob; gluster-users@gluster.org<br>Subject: AW: [Gluster-users] Mounting same replica-volume on multiple clients.
????<br><br>Hello,<br>this ist he behavior as if you write directly into the glusterd directory/partition
and not to the remounted replicating bricks!?<br><br><br>EDV Daniel M?ller<br><br>Leitung EDV<br>Tropenklinik Paul-Lechler-Krankenhaus<br>Paul-Lechler-Str. 24<br>72076 T?bingen<br>Tel.: 07071/206-463, Fax: 07071/206-499<br>eMail: mueller@tropenklinik.de</font></tt><br><tt><font size=2>Internet: </font></tt><a href=www.tropenklinik.de><tt><font size=2>www.tropenklinik.de</font></tt></a><tt><font size=2><br><br>Von: gluster-users-bounces@gluster.org<br>[</font></tt><a href="mailto:gluster-users-bounces@gluster.org"><tt><font size=2>mailto:gluster-users-bounces@gluster.org</font></tt></a><tt><font size=2>]
Im Auftrag von Bobby Jacob<br>Gesendet: Mittwoch, 18. September 2013 07:36<br>An: gluster-users@gluster.org<br>Betreff: [Gluster-users] Mounting same replica-volume on multiple clients.<br>????<br><br>HI,<br><br>I have 2 gluster nodes (GFS01/GFS02) each with a single brick (B01/B01).
I have created a simple replica volume with these bricks. <br>Bricks ?? : GFS01/B01 and GFS02/B01.<br>Volume: TestVol<br><br>I have 2 clients (C01/C02) which will mount this &quot;testvol&quot; for
simultaneous read/write. The 2 clients run the same application which is
load-balanced, so user request are end to both the client servers which
reads/writes data to both the same volume.<br><br>Mounting the volume on C1?????? :?????????????? mount -t glusterfs -o<br>backupvolfile-server=GFS02 GFS01:/testvol /data Mounting the volume on
C2?????? :?????????????? mount -t glusterfs -o<br>backupvolfile-server=GFS01 GFS02:/testvol /data<br><br>Is this the appropriate way to be followed.? <br><br>At times, I notice that when I write data through C1-mount point the data
is written only to GFS01/B01 and if data is written through C2-mount point
the data is written only to GFS02/B01.<br><br>Please advise. !!<br><br><br>Thanks &amp; Regards,<br>Bobby Jacob<br><br><br><br>------------------------------<br><br>Message: 19<br>Date: Tue, 17 Sep 2013 23:45:43 -0700<br>From: Anand Avati &lt;avati@gluster.org&gt;<br>To: kane &lt;stef_9k@163.com&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;, Anand Avati<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;avati@redhat.com&gt;<br>Subject: Re: [Gluster-users] Gluster samba vfs read performance slow<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;CAFboF2yGB6UPN-chHDTGf9HgM_0jbPjWDnUeEiyQp+h9qDTV_w@mail.gmail.com&gt;<br>Content-Type: text/plain; charset=&quot;iso-2022-jp&quot;<br><br>Can you get the volume profile dumps for both the runs and compare them?<br><br>Avati<br><br><br><br>On Tue, Sep 17, 2013 at 10:46 PM, kane &lt;stef_9k@163.com&gt; wrote:<br><br>&gt; I have already used &quot;kernel oplocks = no&quot; in the smb.conf,
next is my<br>&gt; original smb.conf file global settings:<br>&gt; [global]<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; workgroup = MYGROUP<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; server string = DCS Samba Server<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; log file = /var/log/samba/log.vfs<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; max log size = 500000<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; aio read size = 262144<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; aio write size = 262144<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; aio write behind = true<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; security = user<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; passdb backend = tdbsam<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; load printers = yes<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; cups options = raw<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; read raw = yes<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; write raw = yes<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; max xmit = 262144<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; socket options = TCP_NODELAY IPTOS_LOWDELAY
SO_RCVBUF=262144<br>&gt; SO_SNDBUF=262144<br>&gt; # &nbsp; &nbsp; &nbsp; max protocol = SMB2<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; kernel oplocks = no<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; stat cache = no<br>&gt;<br>&gt; thank you<br>&gt; -Kane<br>&gt; ? 2013-9-18???1:38?Anand Avati &lt;avati@redhat.com&gt; ???<br>&gt;<br>&gt; &gt; On 9/17/13 10:34 PM, kane wrote:<br>&gt; &gt;&gt; Hi Anand,<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; I use 2 gluster server , this is my volume info:<br>&gt; &gt;&gt; Volume Name: soul<br>&gt; &gt;&gt; Type: Distribute<br>&gt; &gt;&gt; Volume ID: 58f049d0-a38a-4ebe-94c0-086d492bdfa6<br>&gt; &gt;&gt; Status: Started<br>&gt; &gt;&gt; Number of Bricks: 2<br>&gt; &gt;&gt; Transport-type: tcp<br>&gt; &gt;&gt; Bricks:<br>&gt; &gt;&gt; Brick1: 192.168.101.133:/dcsdata/d0<br>&gt; &gt;&gt; Brick2: 192.168.101.134:/dcsdata/d0<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; each brick use a raid 5 logic disk with 8*2TSATA hdd.<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; smb.conf:<br>&gt; &gt;&gt; [gvol]<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; comment = For samba export of
volume &nbsp;test<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; vfs objects = glusterfs<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; glusterfs:volfile_server = localhost<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; glusterfs:volume = soul<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; path = /<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; read only = no<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; guest ok = yes<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; this my testparm result:<br>&gt; &gt;&gt; [global]<br>&gt; &gt;&gt; workgroup = MYGROUP<br>&gt; &gt;&gt; server string = DCS Samba Server<br>&gt; &gt;&gt; log file = /var/log/samba/log.vfs<br>&gt; &gt;&gt; max log size = 500000<br>&gt; &gt;&gt; max xmit = 262144<br>&gt; &gt;&gt; socket options = TCP_NODELAY IPTOS_LOWDELAY SO_RCVBUF=262144<br>&gt; &gt;&gt; SO_SNDBUF=262144<br>&gt; &gt;&gt; stat cache = No<br>&gt; &gt;&gt; kernel oplocks = No<br>&gt; &gt;&gt; idmap config * : backend = tdb<br>&gt; &gt;&gt; aio read size = 262144<br>&gt; &gt;&gt; aio write size = 262144<br>&gt; &gt;&gt; aio write behind = true<br>&gt; &gt;&gt; cups options = raw<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; in client mount the smb share with cifs to dir /mnt/vfs,<br>&gt; &gt;&gt; then use iozone executed in the cifs mount dir &quot;/mnt/vfs&quot;:<br>&gt; &gt;&gt; $ ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; &gt;&gt; File size set to 10485760 KB<br>&gt; &gt;&gt; Record Size 128 KB<br>&gt; &gt;&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; &gt;&gt; Output is in Kbytes/sec<br>&gt; &gt;&gt; Time Resolution = 0.000001 seconds.<br>&gt; &gt;&gt; Processor cache size set to 1024 Kbytes.<br>&gt; &gt;&gt; Processor cache line size set to 32 bytes.<br>&gt; &gt;&gt; File stride size set to 17 * record size.<br>&gt; &gt;&gt; Throughput test with 4 processes<br>&gt; &gt;&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;534315.84
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;519428.83
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;133154.69 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;134341.05 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;133578.96 KB/sec<br>&gt; &gt;&gt; Min xfer = 10391296.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;536634.88
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;522618.54
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;133408.80 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;134721.36 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;134158.72 KB/sec<br>&gt; &gt;&gt; Min xfer = 10384384.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 readers = &nbsp; 77403.54
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 readers = &nbsp; 77402.86
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp; 19349.42 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp; 19353.42 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp; 19350.88 KB/sec<br>&gt; &gt;&gt; Min xfer = 10483712.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for 4 re-readers = &nbsp; 77424.40
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for 4 re-readers = &nbsp; 77423.89
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp; 19354.75 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp; 19358.50 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp; 19356.10 KB/sec<br>&gt; &gt;&gt; Min xfer = 10483840.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; then the use the same command test in the dir mounted with
glister fuse:<br>&gt; &gt;&gt; File size set to 10485760 KB<br>&gt; &gt;&gt; Record Size 128 KB<br>&gt; &gt;&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; &gt;&gt; Output is in Kbytes/sec<br>&gt; &gt;&gt; Time Resolution = 0.000001 seconds.<br>&gt; &gt;&gt; Processor cache size set to 1024 Kbytes.<br>&gt; &gt;&gt; Processor cache line size set to 32 bytes.<br>&gt; &gt;&gt; File stride size set to 17 * record size.<br>&gt; &gt;&gt; Throughput test with 4 processes<br>&gt; &gt;&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;887534.72
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;848830.39
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;220140.91 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;223690.45 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;221883.68 KB/sec<br>&gt; &gt;&gt; Min xfer = 10319360.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;892774.92
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;871186.83
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;222326.44 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;223970.17 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;223193.73 KB/sec<br>&gt; &gt;&gt; Min xfer = 10431360.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 readers = &nbsp;605889.12
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 readers = &nbsp;601767.96
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;143133.14 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;159550.88 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;151472.28 KB/sec<br>&gt; &gt;&gt; Min xfer = 9406848.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; it shows much higher perf.<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; any places i did wrong?<br>&gt; &gt;&gt;<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; thank you<br>&gt; &gt;&gt; -Kane<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; ? 2013-9-18???1:19?Anand Avati &lt;avati@gluster.org<br>&gt; &gt;&gt; &lt;</font></tt><a href=mailto:avati@gluster.org><tt><font size=2>mailto:avati@gluster.org</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt; &gt;&gt;<br>&gt; &gt;&gt;&gt; How are you testing this? What tool are you using?<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; Avati<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; On Tue, Sep 17, 2013 at 9:02 PM, kane &lt;stef_9k@163.com<br>&gt; &gt;&gt;&gt; &lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
wrote:<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Hi Vijay<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;I used the code
in<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;</font></tt><a href=https://github.com/gluster/glusterfs.git><tt><font size=2>https://github.com/gluster/glusterfs.git</font></tt></a><tt><font size=2>with the lasted commit:<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;commit de2a8d303311bd600cb93a775bc79a0edea1ee1a<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Author: Anand Avati &lt;avati@redhat.com
&lt;</font></tt><a href=mailto:avati@redhat.com><tt><font size=2>mailto:avati@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Date: &nbsp; Tue Sep 17 16:45:03 2013 -0700<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;Revert &quot;cluster/distribute:
Rebalance should also verify free<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;inodes&quot;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;This reverts commit 215fea41a96479312a5ab8783c13b30ab9fe00fa<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;Realized soon after merging,
?.<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;which include the patch you mentioned last
time improve read perf,<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;written by Anand.<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;but the read perf was still slow:<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;write: 500MB/s<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;read: 77MB/s<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;while via fuse :<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;write 800MB/s<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;read 600MB/s<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;any advises?<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Thank you.<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;-Kane<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;? 2013-9-13???10:37?kane &lt;stef_9k@163.com<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;&lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; Hi Vijay?<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp;thank you for post this message,
i will try it soon<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; -kane<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; ? 2013-9-13???9:21?Vijay Bellur &lt;vbellur@redhat.com<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;&lt;</font></tt><a href=mailto:vbellur@redhat.com><tt><font size=2>mailto:vbellur@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; On 09/13/2013 06:10 PM, kane wrote:<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; Hi<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; We use gluster samba vfs test io,but the
read performance via<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;vfs is<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; half of write perfomance,<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; but via fuse the read and write performance
is almost the same.<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; this is our smb.conf:<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; [global]<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; workgroup = MYGROUP<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; server string = DCS
Samba Server<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; log file = /var/log/samba/log.vfs<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; max log size = 500000<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; # &nbsp; &nbsp; &nbsp; use sendfile = true<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio read size = 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio write size = 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio write behind = true<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; min receivefile size
= 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; write cache size = 268435456<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; security = user<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; passdb backend = tdbsam<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; load printers = yes<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; cups options = raw<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; read raw = yes<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; write raw = yes<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; max xmit = 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; socket options = TCP_NODELAY
IPTOS_LOWDELAY<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;SO_RCVBUF=262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; SO_SNDBUF=262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; kernel oplocks = no<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; stat cache = no<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; any advises helpful?<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; This patch has shown improvement in read performance
with libgfapi:<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; </font></tt><a href=http://review.gluster.org/#/c/5897/><tt><font size=2>http://review.gluster.org/#/c/5897/</font></tt></a><tt><font size=2><br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; Would it be possible for you to try this patch
and check if it<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;improves performance in your case?<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; -Vijay<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;_______________________________________________<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Gluster-users mailing list<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Gluster-users@gluster.org &lt;</font></tt><a href="mailto:Gluster-users@gluster.org"><tt><font size=2>mailto:Gluster-users@gluster.org</font></tt></a><tt><font size=2>&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;</font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;<br>&gt; &gt;<br>&gt; &gt; Please add 'kernel oplocks = no' in the [gvol] section and try
again.<br>&gt; &gt;<br>&gt; &gt; Avati<br>&gt; &gt;<br>&gt;<br>&gt;<br>&gt;<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/7acaaa03/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130917/7acaaa03/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 20<br>Date: Wed, 18 Sep 2013 09:17:19 +0200<br>From: Daniel M?ller &lt;mueller@tropenklinik.de&gt;<br>To: &quot;'Bobby Jacob'&quot; &lt;bobby.jacob@alshaya.com&gt;,<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] Mounting same replica-volume on multiple<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
clients. &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
????<br>Message-ID: &lt;002e01ceb43f$1c8635a0$5592a0e0$@de&gt;<br>Content-Type: text/plain; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; charset=&quot;iso-8859-1&quot;<br><br>What about <br>gluster volume info on both nodes!?<br><br>Ex.:<br>Volume Name: sambacluster<br>Type: Replicate<br>Volume ID: 4fd0da03-8579-47cc-926b-d7577dac56cf<br>Status: Started<br>Number of Bricks: 1 x 2 = 2<br>Transport-type: tcp<br>Bricks:<br>Brick1: s4master:/raid5hs/glusterfs/samba<br>Brick2: s4slave:/raid5hs/glusterfs/samba<br>Options Reconfigured:<br>network.ping-timeout: 5<br>performance.quick-read: on<br><br>What are telling you your log files?<br><br>-----------------------------------------------<br>EDV Daniel M?ller<br><br>Leitung EDV<br>Tropenklinik Paul-Lechler-Krankenhaus<br>Paul-Lechler-Str. 24<br>72076 T?bingen<br><br>Tel.: 07071/206-463, Fax: 07071/206-499<br>eMail: mueller@tropenklinik.de<br>Internet: </font></tt><a href=www.tropenklinik.de><tt><font size=2>www.tropenklinik.de</font></tt></a><tt><font size=2><br>-----------------------------------------------<br>-----Urspr?ngliche Nachricht-----<br>Von: Bobby Jacob [</font></tt><a href=mailto:bobby.jacob@alshaya.com><tt><font size=2>mailto:bobby.jacob@alshaya.com</font></tt></a><tt><font size=2>]
<br>Gesendet: Mittwoch, 18. September 2013 07:48<br>An: mueller@tropenklinik.de; gluster-users@gluster.org<br>Betreff: RE: [Gluster-users] Mounting same replica-volume on multiple<br>clients. ????<br><br>Exactly. !! BUT I am writing through the volume mount-point from the<br>clients. !! NOT directly into the bricks. !!<br><br>I'm using GlusterFS 3.3.2 with Centos6.4 . !<br><br>Thanks &amp; Regards,<br>Bobby Jacob<br><br>-----Original Message-----<br>From: Daniel M?ller [</font></tt><a href=mailto:mueller@tropenklinik.de><tt><font size=2>mailto:mueller@tropenklinik.de</font></tt></a><tt><font size=2>]
<br>Sent: Wednesday, September 18, 2013 8:46 AM<br>To: Bobby Jacob; gluster-users@gluster.org<br>Subject: AW: [Gluster-users] Mounting same replica-volume on multiple<br>clients. ????<br><br>Hello,<br>this ist he behavior as if you write directly into the glusterd<br>directory/partition and not to the remounted replicating bricks!?<br><br><br>EDV Daniel M?ller<br><br>Leitung EDV<br>Tropenklinik Paul-Lechler-Krankenhaus<br>Paul-Lechler-Str. 24<br>72076 T?bingen<br>Tel.: 07071/206-463, Fax: 07071/206-499<br>eMail: mueller@tropenklinik.de<br>Internet: </font></tt><a href=www.tropenklinik.de><tt><font size=2>www.tropenklinik.de</font></tt></a><tt><font size=2><br><br>Von: gluster-users-bounces@gluster.org<br>[</font></tt><a href="mailto:gluster-users-bounces@gluster.org"><tt><font size=2>mailto:gluster-users-bounces@gluster.org</font></tt></a><tt><font size=2>]
Im Auftrag von Bobby Jacob<br>Gesendet: Mittwoch, 18. September 2013 07:36<br>An: gluster-users@gluster.org<br>Betreff: [Gluster-users] Mounting same replica-volume on multiple clients.<br>????<br><br>HI,<br><br>I have 2 gluster nodes (GFS01/GFS02) each with a single brick (B01/B01).
I<br>have created a simple replica volume with these bricks. <br>Bricks ?? : GFS01/B01 and GFS02/B01.<br>Volume: TestVol<br><br>I have 2 clients (C01/C02) which will mount this &quot;testvol&quot; for
simultaneous<br>read/write. The 2 clients run the same application which is load-balanced,<br>so user request are end to both the client servers which reads/writes data<br>to both the same volume.<br><br>Mounting the volume on C1?????? :?????????????? mount -t glusterfs -o<br>backupvolfile-server=GFS02 GFS01:/testvol /data Mounting the volume on<br>C2?????? :?????????????? mount -t glusterfs -o<br>backupvolfile-server=GFS01 GFS02:/testvol /data<br><br>Is this the appropriate way to be followed.? <br><br>At times, I notice that when I write data through C1-mount point the data
is<br>written only to GFS01/B01 and if data is written through C2-mount point
the<br>data is written only to GFS02/B01.<br><br>Please advise. !!<br><br><br>Thanks &amp; Regards,<br>Bobby Jacob<br><br><br><br><br>------------------------------<br><br>Message: 21<br>Date: Wed, 18 Sep 2013 16:27:28 +0800<br>From: kane &lt;stef_9k@163.com&gt;<br>To: Anand Avati &lt;avati@gluster.org&gt;<br>Cc: gluster-users &lt;gluster-users@gluster.org&gt;, Anand Avati<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;avati@redhat.com&gt;<br>Subject: Re: [Gluster-users] Gluster samba vfs read performance slow<br>Message-ID: &lt;00411A37-CF9E-4598-8BC3-5A080B0B4766@163.com&gt;<br>Content-Type: text/plain; charset=&quot;iso-2022-jp&quot;<br><br>I compared the profile dumps while write and read is separately running;<br><br>writing:<br>------------------------------------------------<br>Interval 58 Stats:<br> &nbsp; Block Size: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;65536b+
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;131072b+ <br> No. of Reads: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 0 <br>No. of Writes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;27120
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 10500 <br> %-latency &nbsp; Avg-latency &nbsp; Min-Latency &nbsp; Max-Latency &nbsp;
No. of calls &nbsp; &nbsp; &nbsp; &nbsp; Fop<br> --------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp;
------------ &nbsp; &nbsp; &nbsp; &nbsp;----<br> &nbsp; &nbsp;100.00 &nbsp; &nbsp; 133.51 us &nbsp; &nbsp; &nbsp;36.00
us &nbsp; &nbsp;1339.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;37619 &nbsp;
&nbsp; &nbsp; WRITE<br> <br> &nbsp; &nbsp;Duration: 12 seconds<br> &nbsp; Data Read: 0 bytes<br>Data Written: 3153854464 bytes<br>------------------------------------------------<br><br><br>read:<br>------------------------------------------------<br>Interval 63 Stats:<br> &nbsp; Block Size: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 131072b+
<br> No. of Reads: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
3529 <br>No. of Writes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;0 <br> %-latency &nbsp; Avg-latency &nbsp; Min-Latency &nbsp; Max-Latency &nbsp;
No. of calls &nbsp; &nbsp; &nbsp; &nbsp; Fop<br> --------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp;
------------ &nbsp; &nbsp; &nbsp; &nbsp;----<br> &nbsp; &nbsp; &nbsp;0.54 &nbsp; &nbsp; &nbsp;87.86 us &nbsp; &nbsp; &nbsp;68.00
us &nbsp; &nbsp; 127.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 42
&nbsp; &nbsp; &nbsp; FSTAT<br> &nbsp; &nbsp; 99.46 &nbsp; &nbsp; 193.68 us &nbsp; &nbsp; &nbsp;89.00
us &nbsp; &nbsp;2121.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 3529 &nbsp;
&nbsp; &nbsp; &nbsp;READ<br> <br> &nbsp; &nbsp;Duration: 12 seconds<br> &nbsp; Data Read: 462553088 bytes<br>Data Written: 0 bytes<br>------------------------------------------------<br><br><br><br>two server brick avg dumps:<br>================================<br>Brick: 192.168.101.133:/dcsdata/d0<br>----------------------------------<br>Cumulative Stats:<br> &nbsp; Block Size: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 8192b+
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 16384b+ &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 32768b+ <br> No. of Reads: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 0 <br>No. of Writes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;2 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 1 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 1 <br> <br> &nbsp; Block Size: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;65536b+
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;131072b+ &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;262144b+ <br> No. of Reads: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1613832
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0
<br>No. of Writes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2282474
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1148962 &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 227 <br> <br> %-latency &nbsp; Avg-latency &nbsp; Min-Latency &nbsp; Max-Latency &nbsp;
No. of calls &nbsp; &nbsp; &nbsp; &nbsp; Fop<br> --------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp;
------------ &nbsp; &nbsp; &nbsp; &nbsp;----<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp;
0.00 us &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; 14 &nbsp; &nbsp; &nbsp;FORGET<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp;
0.00 us &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; 39 &nbsp; &nbsp; RELEASE<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp;
0.00 us &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp;114 &nbsp;RELEASEDIR<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp;84.50 us &nbsp; &nbsp; &nbsp;54.00
us &nbsp; &nbsp; 115.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2
&nbsp; &nbsp; OPENDIR<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp;79.00 us &nbsp; &nbsp; &nbsp;52.00
us &nbsp; &nbsp; 127.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4
&nbsp; &nbsp; &nbsp; &nbsp;OPEN<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp;47.00 us &nbsp; &nbsp; &nbsp;14.00
us &nbsp; &nbsp; 130.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;8
&nbsp; &nbsp; &nbsp; FLUSH<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; 342.00 us &nbsp; &nbsp; 311.00
us &nbsp; &nbsp; 373.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2
&nbsp; &nbsp; &nbsp;CREATE<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; 104.77 us &nbsp; &nbsp; &nbsp;26.00
us &nbsp; &nbsp; 281.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 13
&nbsp; &nbsp; &nbsp;STATFS<br> &nbsp; &nbsp; &nbsp;0.01 &nbsp; &nbsp; 131.75 us &nbsp; &nbsp; &nbsp;35.00
us &nbsp; &nbsp; 285.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 93
&nbsp; &nbsp; &nbsp;LOOKUP<br> &nbsp; &nbsp; &nbsp;0.02 &nbsp; &nbsp;7446.00 us &nbsp; &nbsp; 104.00
us &nbsp; 29191.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4
&nbsp; &nbsp;READDIRP<br> &nbsp; &nbsp; &nbsp;0.07 &nbsp; &nbsp;2784.89 us &nbsp; &nbsp; &nbsp;49.00
us &nbsp; 49224.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 36 &nbsp;
&nbsp;GETXATTR<br> &nbsp; &nbsp; &nbsp;0.20 &nbsp; &nbsp; &nbsp;64.49 us &nbsp; &nbsp; &nbsp;29.00
us &nbsp; &nbsp; 164.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4506 &nbsp;
&nbsp; &nbsp; FSTAT<br> &nbsp; &nbsp; &nbsp;1.07 &nbsp;399482.25 us &nbsp;361616.00 us &nbsp;450370.00
us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4 &nbsp; &nbsp; &nbsp;UNLINK<br> &nbsp; &nbsp; 42.87 &nbsp; &nbsp; 167.36 us &nbsp; &nbsp; &nbsp;56.00
us &nbsp; 44827.00 us &nbsp; &nbsp; &nbsp; &nbsp; 381080 &nbsp; &nbsp;
&nbsp; &nbsp;READ<br> &nbsp; &nbsp; 55.76 &nbsp; &nbsp; &nbsp;71.51 us &nbsp; &nbsp; &nbsp;35.00
us &nbsp; &nbsp;7032.00 us &nbsp; &nbsp; &nbsp; &nbsp;1159912 &nbsp; &nbsp;
&nbsp; WRITE<br> <br> &nbsp; &nbsp;Duration: 22156 seconds<br> &nbsp; Data Read: 211528187904 bytes<br>Data Written: 300276908032 bytes<br> <br>Interval 71 Stats:<br> %-latency &nbsp; Avg-latency &nbsp; Min-Latency &nbsp; Max-Latency &nbsp;
No. of calls &nbsp; &nbsp; &nbsp; &nbsp; Fop<br> --------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp;
------------ &nbsp; &nbsp; &nbsp; &nbsp;----<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp;
0.00 us &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;1 &nbsp;RELEASEDIR<br> &nbsp; &nbsp; &nbsp;0.18 &nbsp; &nbsp; &nbsp;54.00 us &nbsp; &nbsp; &nbsp;54.00
us &nbsp; &nbsp; &nbsp;54.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp;1 &nbsp; &nbsp; OPENDIR<br> &nbsp; &nbsp; &nbsp;1.05 &nbsp; &nbsp; 107.33 us &nbsp; &nbsp; &nbsp;40.00
us &nbsp; &nbsp; 217.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;3
&nbsp; &nbsp; &nbsp;STATFS<br> &nbsp; &nbsp; &nbsp;2.90 &nbsp; &nbsp; 126.57 us &nbsp; &nbsp; &nbsp;81.00
us &nbsp; &nbsp; 256.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;7
&nbsp; &nbsp; &nbsp;LOOKUP<br> &nbsp; &nbsp; 95.88 &nbsp; 14669.00 us &nbsp; &nbsp; 147.00 us &nbsp;
29191.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2 &nbsp; &nbsp;READDIRP<br> <br> &nbsp; &nbsp;Duration: 581 seconds<br> &nbsp; Data Read: 0 bytes<br>Data Written: 0 bytes<br> <br>Brick: 192.168.101.134:/dcsdata/d0<br>----------------------------------<br>Cumulative Stats:<br> &nbsp; Block Size: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 8192b+
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 16384b+ &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 32768b+ <br> No. of Reads: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 0 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 0 <br>No. of Writes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;2 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; 3 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp;24 <br> <br> &nbsp; Block Size: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;65536b+
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;131072b+ &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp;262144b+ <br> No. of Reads: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; 22 &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1563063 &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 0 <br>No. of Writes: &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;1522412
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 1525007 &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 184 <br> <br> %-latency &nbsp; Avg-latency &nbsp; Min-Latency &nbsp; Max-Latency &nbsp;
No. of calls &nbsp; &nbsp; &nbsp; &nbsp; Fop<br> --------- &nbsp; ----------- &nbsp; ----------- &nbsp; ----------- &nbsp;
------------ &nbsp; &nbsp; &nbsp; &nbsp;----<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp;
0.00 us &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; 14 &nbsp; &nbsp; &nbsp;FORGET<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp;
0.00 us &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; 39 &nbsp; &nbsp; RELEASE<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp;
0.00 us &nbsp; &nbsp; &nbsp; 0.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp;114 &nbsp;RELEASEDIR<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; 116.50 us &nbsp; &nbsp; 111.00
us &nbsp; &nbsp; 122.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2
&nbsp; &nbsp; OPENDIR<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp;69.25 us &nbsp; &nbsp; &nbsp;23.00
us &nbsp; &nbsp; &nbsp;95.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp;8 &nbsp; &nbsp; &nbsp; FLUSH<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; 418.00 us &nbsp; &nbsp; 285.00
us &nbsp; &nbsp; 551.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;2
&nbsp; &nbsp; &nbsp;CREATE<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; 239.25 us &nbsp; &nbsp; 101.00
us &nbsp; &nbsp; 396.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4
&nbsp; &nbsp;READDIRP<br> &nbsp; &nbsp; &nbsp;0.00 &nbsp; &nbsp; &nbsp;93.00 us &nbsp; &nbsp; &nbsp;39.00
us &nbsp; &nbsp; 249.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 13
&nbsp; &nbsp; &nbsp;STATFS<br> &nbsp; &nbsp; &nbsp;0.01 &nbsp; &nbsp; 142.89 us &nbsp; &nbsp; &nbsp;78.00
us &nbsp; &nbsp; 241.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 87
&nbsp; &nbsp; &nbsp;LOOKUP<br> &nbsp; &nbsp; &nbsp;0.09 &nbsp; 48402.25 us &nbsp; &nbsp; 114.00 us &nbsp;
99173.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4 &nbsp; &nbsp;
&nbsp; &nbsp;OPEN<br> &nbsp; &nbsp; &nbsp;0.19 &nbsp; 10974.42 us &nbsp; &nbsp; &nbsp;60.00
us &nbsp;345979.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 36 &nbsp;
&nbsp;GETXATTR<br> &nbsp; &nbsp; &nbsp;0.20 &nbsp; &nbsp; &nbsp;94.33 us &nbsp; &nbsp; &nbsp;41.00
us &nbsp; &nbsp; 200.00 us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; 4387 &nbsp;
&nbsp; &nbsp; FSTAT<br> &nbsp; &nbsp; &nbsp;0.85 &nbsp;440436.25 us &nbsp;381525.00 us &nbsp;582989.00
us &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;4 &nbsp; &nbsp; &nbsp;UNLINK<br> &nbsp; &nbsp; 35.80 &nbsp; &nbsp; 193.96 us &nbsp; &nbsp; &nbsp;57.00
us &nbsp; 23312.00 us &nbsp; &nbsp; &nbsp; &nbsp; 380869 &nbsp; &nbsp;
&nbsp; &nbsp;READ<br> &nbsp; &nbsp; 62.86 &nbsp; &nbsp; 134.89 us &nbsp; &nbsp; &nbsp;29.00
us &nbsp; &nbsp;9976.00 us &nbsp; &nbsp; &nbsp; &nbsp; 961593 &nbsp; &nbsp;
&nbsp; WRITE<br> <br> &nbsp; &nbsp;Duration: 22155 seconds<br> &nbsp; Data Read: 204875400152 bytes<br>Data Written: 299728837956 bytes<br>================================<br><br><br>Kane<br><br>? 2013-9-18???2:45?Anand Avati &lt;avati@gluster.org&gt; ???<br><br>&gt; Can you get the volume profile dumps for both the runs and compare
them?<br>&gt; <br>&gt; Avati<br>&gt; <br>&gt; <br>&gt; <br>&gt; On Tue, Sep 17, 2013 at 10:46 PM, kane &lt;stef_9k@163.com&gt; wrote:<br>&gt; I have already used &quot;kernel oplocks = no&quot; in the smb.conf,
next is my original smb.conf file global settings:<br>&gt; [global]<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; workgroup = MYGROUP<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; server string = DCS Samba Server<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; log file = /var/log/samba/log.vfs<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; max log size = 500000<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; aio read size = 262144<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; aio write size = 262144</font></tt><br><tt><font size=2>&gt; &nbsp; &nbsp; &nbsp; &nbsp; aio write behind
= true<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; security = user<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; passdb backend = tdbsam<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; load printers = yes<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; cups options = raw<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; read raw = yes<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; write raw = yes<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; max xmit = 262144<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; socket options = TCP_NODELAY IPTOS_LOWDELAY
SO_RCVBUF=262144 SO_SNDBUF=262144<br>&gt; # &nbsp; &nbsp; &nbsp; max protocol = SMB2<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; kernel oplocks = no<br>&gt; &nbsp; &nbsp; &nbsp; &nbsp; stat cache = no<br>&gt; <br>&gt; thank you<br>&gt; -Kane<br>&gt; ? 2013-9-18???1:38?Anand Avati &lt;avati@redhat.com&gt; ???<br>&gt; <br>&gt; &gt; On 9/17/13 10:34 PM, kane wrote:<br>&gt; &gt;&gt; Hi Anand,<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; I use 2 gluster server , this is my volume info:<br>&gt; &gt;&gt; Volume Name: soul<br>&gt; &gt;&gt; Type: Distribute<br>&gt; &gt;&gt; Volume ID: 58f049d0-a38a-4ebe-94c0-086d492bdfa6<br>&gt; &gt;&gt; Status: Started<br>&gt; &gt;&gt; Number of Bricks: 2<br>&gt; &gt;&gt; Transport-type: tcp<br>&gt; &gt;&gt; Bricks:<br>&gt; &gt;&gt; Brick1: 192.168.101.133:/dcsdata/d0<br>&gt; &gt;&gt; Brick2: 192.168.101.134:/dcsdata/d0<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; each brick use a raid 5 logic disk with 8*2TSATA hdd.<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; smb.conf:<br>&gt; &gt;&gt; [gvol]<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; comment = For samba export of
volume &nbsp;test<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; vfs objects = glusterfs<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; glusterfs:volfile_server = localhost<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; glusterfs:volume = soul<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; path = /<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; read only = no<br>&gt; &gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; guest ok = yes<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; this my testparm result:<br>&gt; &gt;&gt; [global]<br>&gt; &gt;&gt; workgroup = MYGROUP<br>&gt; &gt;&gt; server string = DCS Samba Server<br>&gt; &gt;&gt; log file = /var/log/samba/log.vfs<br>&gt; &gt;&gt; max log size = 500000<br>&gt; &gt;&gt; max xmit = 262144<br>&gt; &gt;&gt; socket options = TCP_NODELAY IPTOS_LOWDELAY SO_RCVBUF=262144<br>&gt; &gt;&gt; SO_SNDBUF=262144<br>&gt; &gt;&gt; stat cache = No<br>&gt; &gt;&gt; kernel oplocks = No<br>&gt; &gt;&gt; idmap config * : backend = tdb<br>&gt; &gt;&gt; aio read size = 262144<br>&gt; &gt;&gt; aio write size = 262144<br>&gt; &gt;&gt; aio write behind = true<br>&gt; &gt;&gt; cups options = raw<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; in client mount the smb share with cifs to dir /mnt/vfs,<br>&gt; &gt;&gt; then use iozone executed in the cifs mount dir &quot;/mnt/vfs&quot;:<br>&gt; &gt;&gt; $ ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; &gt;&gt; File size set to 10485760 KB<br>&gt; &gt;&gt; Record Size 128 KB<br>&gt; &gt;&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; &gt;&gt; Output is in Kbytes/sec<br>&gt; &gt;&gt; Time Resolution = 0.000001 seconds.<br>&gt; &gt;&gt; Processor cache size set to 1024 Kbytes.<br>&gt; &gt;&gt; Processor cache line size set to 32 bytes.<br>&gt; &gt;&gt; File stride size set to 17 * record size.<br>&gt; &gt;&gt; Throughput test with 4 processes<br>&gt; &gt;&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;534315.84
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;519428.83
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;133154.69 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;134341.05 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;133578.96 KB/sec<br>&gt; &gt;&gt; Min xfer = 10391296.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;536634.88
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;522618.54
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;133408.80 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;134721.36 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;134158.72 KB/sec<br>&gt; &gt;&gt; Min xfer = 10384384.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 readers = &nbsp; 77403.54
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 readers = &nbsp; 77402.86
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp; 19349.42 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp; 19353.42 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp; 19350.88 KB/sec<br>&gt; &gt;&gt; Min xfer = 10483712.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for 4 re-readers = &nbsp; 77424.40
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for 4 re-readers = &nbsp; 77423.89
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp; 19354.75 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp; 19358.50 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp; 19356.10 KB/sec<br>&gt; &gt;&gt; Min xfer = 10483840.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; then the use the same command test in the dir mounted with
glister fuse:<br>&gt; &gt;&gt; File size set to 10485760 KB<br>&gt; &gt;&gt; Record Size 128 KB<br>&gt; &gt;&gt; Command line used: ./iozone -s 10G -r 128k -i0 -i1 -t 4<br>&gt; &gt;&gt; Output is in Kbytes/sec<br>&gt; &gt;&gt; Time Resolution = 0.000001 seconds.<br>&gt; &gt;&gt; Processor cache size set to 1024 Kbytes.<br>&gt; &gt;&gt; Processor cache line size set to 32 bytes.<br>&gt; &gt;&gt; File stride size set to 17 * record size.<br>&gt; &gt;&gt; Throughput test with 4 processes<br>&gt; &gt;&gt; Each process writes a 10485760 Kbyte file in 128 Kbyte records<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 initial writers = &nbsp;887534.72
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 initial writers = &nbsp;848830.39
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;220140.91 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;223690.45 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;221883.68 KB/sec<br>&gt; &gt;&gt; Min xfer = 10319360.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 rewriters = &nbsp;892774.92
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 rewriters = &nbsp;871186.83
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;222326.44 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;223970.17 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;223193.73 KB/sec<br>&gt; &gt;&gt; Min xfer = 10431360.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; Children see throughput for &nbsp;4 readers = &nbsp;605889.12
KB/sec<br>&gt; &gt;&gt; Parent sees throughput for &nbsp;4 readers = &nbsp;601767.96
KB/sec<br>&gt; &gt;&gt; Min throughput per process = &nbsp;143133.14 KB/sec<br>&gt; &gt;&gt; Max throughput per process = &nbsp;159550.88 KB/sec<br>&gt; &gt;&gt; Avg throughput per process = &nbsp;151472.28 KB/sec<br>&gt; &gt;&gt; Min xfer = 9406848.00 KB<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; it shows much higher perf.<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; any places i did wrong?<br>&gt; &gt;&gt;<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; thank you<br>&gt; &gt;&gt; -Kane<br>&gt; &gt;&gt;<br>&gt; &gt;&gt; ? 2013-9-18???1:19?Anand Avati &lt;avati@gluster.org<br>&gt; &gt;&gt; &lt;</font></tt><a href=mailto:avati@gluster.org><tt><font size=2>mailto:avati@gluster.org</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt; &gt;&gt;<br>&gt; &gt;&gt;&gt; How are you testing this? What tool are you using?<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; Avati<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; On Tue, Sep 17, 2013 at 9:02 PM, kane &lt;stef_9k@163.com<br>&gt; &gt;&gt;&gt; &lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
wrote:<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Hi Vijay<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;I used the code
in<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;</font></tt><a href=https://github.com/gluster/glusterfs.git><tt><font size=2>https://github.com/gluster/glusterfs.git</font></tt></a><tt><font size=2>with the lasted commit:<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;commit de2a8d303311bd600cb93a775bc79a0edea1ee1a<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Author: Anand Avati &lt;avati@redhat.com
&lt;</font></tt><a href=mailto:avati@redhat.com><tt><font size=2>mailto:avati@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Date: &nbsp; Tue Sep 17 16:45:03 2013 -0700<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;Revert &quot;cluster/distribute:
Rebalance should also verify free<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;inodes&quot;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;This reverts commit 215fea41a96479312a5ab8783c13b30ab9fe00fa<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp; &nbsp; &nbsp;Realized soon after merging,
?.<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;which include the patch you mentioned last
time improve read perf,<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;written by Anand.<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;but the read perf was still slow:<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;write: 500MB/s<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;read: 77MB/s<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;while via fuse :<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;write 800MB/s<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;read 600MB/s<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;any advises?<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Thank you.<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;-Kane<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;? 2013-9-13???10:37?kane &lt;stef_9k@163.com<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;&lt;</font></tt><a href=mailto:stef_9k@163.com><tt><font size=2>mailto:stef_9k@163.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; Hi Vijay?<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp;thank you for post this message,
i will try it soon<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; -kane<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt; ? 2013-9-13???9:21?Vijay Bellur &lt;vbellur@redhat.com<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;&lt;</font></tt><a href=mailto:vbellur@redhat.com><tt><font size=2>mailto:vbellur@redhat.com</font></tt></a><tt><font size=2>&gt;&gt;
???<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; On 09/13/2013 06:10 PM, kane wrote:<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; Hi<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; We use gluster samba vfs test io,but the
read performance via<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;vfs is<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; half of write perfomance,<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; but via fuse the read and write performance
is almost the same.<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; this is our smb.conf:<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; [global]<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; workgroup = MYGROUP<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; server string = DCS
Samba Server<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; log file = /var/log/samba/log.vfs<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; max log size = 500000<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; # &nbsp; &nbsp; &nbsp; use sendfile = true<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio read size = 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio write size = 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; aio write behind = true<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; min receivefile size
= 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; write cache size = 268435456<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; security = user<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; passdb backend = tdbsam<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; load printers = yes<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; cups options = raw<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; read raw = yes<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; write raw = yes<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; max xmit = 262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; socket options = TCP_NODELAY
IPTOS_LOWDELAY<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;SO_RCVBUF=262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; SO_SNDBUF=262144<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; kernel oplocks = no<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; &nbsp; &nbsp; &nbsp; stat cache = no<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt; any advises helpful?<br>&gt; &gt;&gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; This patch has shown improvement in read performance
with libgfapi:<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; </font></tt><a href=http://review.gluster.org/#/c/5897/><tt><font size=2>http://review.gluster.org/#/c/5897/</font></tt></a><tt><font size=2><br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; Would it be possible for you to try this patch
and check if it<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;improves performance in your case?<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;&gt; -Vijay<br>&gt; &gt;&gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;_______________________________________________<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Gluster-users mailing list<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;Gluster-users@gluster.org &lt;</font></tt><a href="mailto:Gluster-users@gluster.org"><tt><font size=2>mailto:Gluster-users@gluster.org</font></tt></a><tt><font size=2>&gt;<br>&gt; &gt;&gt;&gt; &nbsp; &nbsp;</font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;&gt;<br>&gt; &gt;&gt;<br>&gt; &gt;<br>&gt; &gt; Please add 'kernel oplocks = no' in the [gvol] section and try
again.<br>&gt; &gt;<br>&gt; &gt; Avati<br>&gt; &gt;<br>&gt; <br>&gt; <br>&gt; <br><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/ab613dc7/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/ab613dc7/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 22<br>Date: Wed, 18 Sep 2013 11:15:21 +0200<br>From: Luk?? Bezdi?ka &lt;lukas.bezdicka@gooddata.com&gt;<br>To: Vijay Bellur &lt;vbellur@redhat.com&gt;<br>Cc: Emmanuel Dreyfus &lt;manu@netbsd.org&gt;, &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; &quot;gluster-users@gluster.org&quot;<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;gluster-users@gluster.org&gt;, &nbsp; &nbsp; &nbsp; &nbsp;
&nbsp; &nbsp; &nbsp; &nbsp; Gluster Devel &lt;gluster-devel@nongnu.org&gt;<br>Subject: Re: [Gluster-users] [Gluster-devel] glusterfs-3.4.1qa2<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
released<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;CAEePdhkatO15oh6JajVogKfhY4cK-P=4G9u6H4wtVTTtO9q+1A@mail.gmail.com&gt;<br>Content-Type: text/plain; charset=&quot;utf-8&quot;<br><br>Tested with glusterfs-3.4.1qa2-1.el6.x86_64 issue with ACL is still there,<br>unless one applies patch from </font></tt><a href=http://review.gluster.org/#/c/5693/><tt><font size=2>http://review.gluster.org/#/c/5693/</font></tt></a><tt><font size=2>which<br>shoots through the caches and takes ACLs from server or sets<br>entry-timeout=0 it returns wrong values. This is probably because ACL mask<br>being applied incorrectly in posix_acl_inherit_mode, but I'm no C expert
to<br>say so :(<br><br><br>On Mon, Sep 16, 2013 at 9:37 AM, Vijay Bellur &lt;vbellur@redhat.com&gt;
wrote:<br><br>&gt; On 09/16/2013 05:47 AM, Emmanuel Dreyfus wrote:<br>&gt;<br>&gt;&gt; Emmanuel Dreyfus &lt;manu@netbsd.org&gt; wrote:<br>&gt;&gt;<br>&gt;&gt; &nbsp;It seems it has something very broken. A tar -xzf reported
no error<br>&gt;&gt;&gt; while most of the file do not appear in the filesystem on
completion.<br>&gt;&gt;&gt;<br>&gt;&gt;<br>&gt;&gt; I am not sure but it seems files appeared afterwards. There was
a system<br>&gt;&gt; clock problem, client being a few seconds in the past. Can it
explain<br>&gt;&gt; the problem?<br>&gt;&gt;<br>&gt;<br>&gt; When the client's time is off and fuse has entry-timeout set to 0,
is this<br>&gt; problem seen?<br>&gt;<br>&gt; The fuse forget log message is benign and does not have any functional<br>&gt; impact. I have sent a patch which addresses this behavior:<br>&gt;<br>&gt; </font></tt><a href=http://review.gluster.org/#/c/**5932/><tt><font size=2>http://review.gluster.org/#/c/**5932/</font></tt></a><tt><font size=2>&lt;</font></tt><a href=http://review.gluster.org/#/c/5932/><tt><font size=2>http://review.gluster.org/#/c/5932/</font></tt></a><tt><font size=2>&gt;<br>&gt;<br>&gt; -Vijay<br>&gt;<br>&gt;<br>&gt;<br>&gt; ______________________________**_________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.**org/mailman/listinfo/gluster-**users"><tt><font size=2>http://supercolony.gluster.**org/mailman/listinfo/gluster-**users</font></tt></a><tt><font size=2>&lt;</font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2>&gt;<br>&gt;<br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/260d04d5/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/260d04d5/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 23<br>Date: Wed, 18 Sep 2013 11:35:26 +0200 (CEST)<br>From: Dragon &lt;Sunghost@gmx.de&gt;<br>To: gluster-users@gluster.org<br>Subject: Re: [Gluster-users] Cant see files after network failure<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;trinity-454d5481-7606-49b1-977b-9619577d4820-1379496926132@3capp-gmx-bs16&gt;<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
<br>Content-Type: text/plain; charset=&quot;us-ascii&quot;<br><br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/f3e5de21/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/f3e5de21/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 24<br>Date: Wed, 18 Sep 2013 10:35:58 +0100<br>From: Nux! &lt;nux@li.nux.ro&gt;<br>To: Shishir Gowda &lt;sgowda@redhat.com&gt;<br>Cc: Gluster Users &lt;gluster-users@gluster.org&gt;<br>Subject: Re: [Gluster-users] gluster volume top issue<br>Message-ID: &lt;2f58eea8b9dfc00fb8efe932acedc83b@li.nux.ro&gt;<br>Content-Type: text/plain; charset=UTF-8; format=flowed<br><br>On 18.09.2013 04:39, Shishir Gowda wrote:<br>&gt; Hi Nux,<br>&gt; <br>&gt; I am trying to see if the issue of &quot;0&quot; open fd is based
on the<br>&gt; work-load, or a bug.<br>&gt; <br>&gt; Could you check top command output of &quot;read/write&quot; operation
too?<br><br>Shishir,<br><br>Those commands only output the bricks and nothing more:<br><br>[root@2216 ~]# gluster volume top xenvms read nfs<br>NFS Server : localhost<br>NFS Server : 1726.stocare.domeniu.net<br>NFS Server : 1613.stocare.domeniu.net<br>NFS Server : 1631.stocare.domeniu.net<br><br>[root@2216 ~]# gluster volume top xenvms write nfs<br>NFS Server : localhost<br>NFS Server : 1631.stocare.domeniu.net<br>NFS Server : 1613.stocare.domeniu.net<br>NFS Server : 1726.stocare.domeniu.net<br><br>Same without &quot;nfs&quot;.<br><br>-- <br>Sent from the Delta quadrant using Borg technology!<br><br>Nux!<br></font></tt><a href=www.nux.ro><tt><font size=2>www.nux.ro</font></tt></a><tt><font size=2><br><br><br>------------------------------<br><br>Message: 25<br>Date: Wed, 18 Sep 2013 11:01:36 +0100<br>From: &quot;Michael.OBrien&quot; &lt;Michael.OBrien@ul.ie&gt;<br>To: &lt;gluster-users@gluster.org&gt;<br>Subject: [Gluster-users] Secure Setup / Separate GlusterFS /<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
Encryption<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;2A20FC0CEBD54B4D98950B3B5B1D99FE01400256@staffexchange3.ul.campus&gt;<br>Content-Type: text/plain; charset=&quot;us-ascii&quot;<br><br>Hi Gluster Users,<br><br> <br><br>I'm looking for some advice or best practice recommendations when it<br>comes to designing secure glusterFS environments. I'm talking about the<br>basic design principles that a user should consider irrespective of the<br>content that will be stored. I realise security isn't a destination but<br>a journey but I'd appreciate any advice you may have and it goes without<br>saying that if the content is that important it should be separated.<br><br> <br><br>What is the current advise on configuring secure glusterFS environments<br>or the trade-offs to consider? <br><br> <br><br>Should everything from bricks to storage nodes and the storage data<br>network be separated into different glusterFS's or can I share storage<br>nodes across different clients without fear of crossed wires or a rogue<br>client being able to list the other mount points of other clients or<br>worse access their data? <br><br> <br><br>My mindset would be to try and compare it to a SAN (but I'm not a SAN<br>guy either) where disk storage is pooled and provisioned as LUN's and<br>the LUN's are presented to certain HBA's . The SAN can be configured so<br>that only particular HBA's can access a LUN so even if the client is<br>compromised the SAN doesn't allow it to access other LUN's<br><br> <br><br>Finally also on the topic of security how would people suggest handling<br>encryption of client data and working with a storage server hosting<br>different encrypted data<br><br> <br><br>Michael<br><br>-------------- next part --------------<br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/6429d503/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/6429d503/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>Message: 26<br>Date: Wed, 18 Sep 2013 07:36:32 -0400 (EDT)<br>From: Krishnan Parthasarathi &lt;kparthas@redhat.com&gt;<br>To: Dragon &lt;Sunghost@gmx.de&gt;<br>Cc: gluster-users@gluster.org<br>Subject: Re: [Gluster-users] Cant see files after network failure<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;569256344.14871568.1379504192724.JavaMail.root@redhat.com&gt;<br>Content-Type: text/plain; charset=utf-8<br><br>Dragon,<br><br>Could you attach brick log files, client log file(s) and output of the
following<br>commands,<br>gluster volume info VOLNAME<br>gluster volume status VOLNAME<br><br>Could you attach the &quot;etc-glusterfs..&quot; log as well?<br><br>thanks,<br>krish<br><br>----- Original Message -----<br>&gt; Hello,<br>&gt; i didnt find any hint of an error. Now i restart all server and watched
the<br>&gt; &quot;etc-glusterfs..&quot; log. The only thing i found is: &quot;rpc
actor failed to<br>&gt; complete successfully&quot;. All peers looks good and the volume too.
i can see<br>&gt; the files in the data folder of each brick, but after fuse mount on
a<br>&gt; client, i cant see anything. permissions at the files on each brick
are<br>&gt; root:root.<br>&gt; What can i do?<br>&gt; <br>&gt; _______________________________________________<br>&gt; Gluster-users mailing list<br>&gt; Gluster-users@gluster.org<br>&gt; </font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br><br><br>------------------------------<br><br>Message: 27<br>Date: Wed, 18 Sep 2013 13:51:52 +0200 (CEST)<br>From: Dragon &lt;Sunghost@gmx.de&gt;<br>To: gluster-users@gluster.org<br>Subject: Re: [Gluster-users] Cant see files after network failure<br>Message-ID:<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
&lt;trinity-319be117-5bab-441b-9c7c-7794b2523d3a-1379505112825@3capp-gmx-bs56&gt;<br> &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp; &nbsp;
<br>Content-Type: text/plain; charset=&quot;us-ascii&quot;<br><br>An HTML attachment was scrubbed...<br>URL: &lt;</font></tt><a href="http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/2349a003/attachment-0001.html"><tt><font size=2>http://supercolony.gluster.org/pipermail/gluster-users/attachments/20130918/2349a003/attachment-0001.html</font></tt></a><tt><font size=2>&gt;<br><br>------------------------------<br><br>_______________________________________________<br>Gluster-users mailing list<br>Gluster-users@gluster.org<br></font></tt><a href="http://supercolony.gluster.org/mailman/listinfo/gluster-users"><tt><font size=2>http://supercolony.gluster.org/mailman/listinfo/gluster-users</font></tt></a><tt><font size=2><br><br>End of Gluster-users Digest, Vol 65, Issue 18<br>*********************************************<br></font></tt><br><BR>
**<BR>
<BR>
This email and any attachments may contain information that is confidential and/or privileged for the sole use of the intended recipient.  Any use, review, disclosure, copying, distribution or reliance by others, and any forwarding of this email or its contents, without the express permission of the sender is strictly prohibited by law.  If you are not the intended recipient, please contact the sender immediately, delete the e-mail and destroy all copies.<BR>
**<BR>